home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / cryonics / 653 < prev    next >
Encoding:
Text File  |  1992-11-22  |  54.5 KB  |  970 lines

  1. Newsgroups: sci.cryonics
  2. Path: sparky!uunet!decwrl!parc!merkle
  3. From: merkle@parc.xerox.com (Ralph Merkle)
  4. Subject: The Technical Feasibility of Cryonics; Part #3
  5. Message-ID: <merkle.722466956@manarken>
  6. Sender: news@parc.xerox.com
  7. Organization: Xerox PARC
  8. Date: 22 Nov 92 21:15:56 GMT
  9. Lines: 959
  10.  
  11. The Technical Feasibility of Cryonics
  12.  
  13. PART 3 of 5.
  14.  
  15. by
  16.  
  17. Ralph C. Merkle
  18. Xerox PARC
  19. 3333 Coyote Hill Road
  20. Palo Alto, CA 94304
  21. merkle@xerox.com
  22.  
  23. A shorter version of this article appeared in:
  24. Medical Hypotheses (1992)  39, pages 6-16.
  25.  
  26.  
  27. ----------------------------------------------------------
  28. TECHNICAL OVERVIEW
  29.  
  30. Even if information theoretic death has not occurred, a frozen brain is 
  31. not a healthy structure.  While repair might be feasible in principle, 
  32. it would be comforting to have at least some idea about how such repairs 
  33. might be done in practice.  As long as we assume that the laws of 
  34. physics, chemistry, and biochemistry with which we are familiar today 
  35. will still form the basic framework within which repair will take place 
  36. in the future, we can draw well founded conclusions about the 
  37. capabilities and limits of any such repair technology.
  38.  
  39.      The Nature of This Proposal
  40.  
  41. To decide whether or not to pursue cryonic suspension we must answer one 
  42. question:  will restoration of frozen tissue to a healthy and functional 
  43. state ever prove feasible?  If the answer is "yes," then cryonics will 
  44. save lives.  If the answer is "no," then it can be ignored.  As 
  45. discussed earlier, the most that we can usefully learn about frozen 
  46. tissue is the type, location and orientation of each molecule.  If this 
  47. information is sufficient to permit inference of the healthy state with 
  48. memory and personality intact, then repair is in principle feasible.  
  49. The most that future technology could offer, therefore, is the ability 
  50. to restore the structure whenever such restoration was feasible in 
  51. principle.  We propose that just this limit will be closely approached 
  52. by future advances in technology.
  53.  
  54. It is unreasonable to think that the current proposal will in fact form 
  55. the basis for future repair methods for two reasons:
  56.  
  57. First, better technologies and approaches are likely to be developed.  
  58. Necessarily, we must restrict ourselves to methods and techniques that 
  59. can be analyzed and understood using the currently understood laws of 
  60. physics and chemistry.  Future scientific advances, not anticipated at 
  61. this time, are likely to result in cheaper, simpler or more reliable 
  62. methods.  Given the history of science and technology to date, the 
  63. probability of future unanticipated advances is good.
  64.  
  65. Second, this proposal was selected because of its conceptual simplicity 
  66. and its obvious power to restore virtually any structure where 
  67. restoration is in principle feasible.  These are unlikely to be design 
  68. objectives of future systems.  Conceptual simplicity is advantageous 
  69. when the resources available for the design process are limited.  Future 
  70. design capabilities can reasonably be expected to outstrip current 
  71. capabilities, and the efforts of a large group can reasonably be 
  72. expected to allow analysis of much more complex proposals than 
  73. considered here.
  74.  
  75. Further, future systems will be designed to restore specific individuals 
  76. suffering from specific types of damage, and can therefore use specific 
  77. methods that are less general but which are more efficient or less 
  78. costly for the particular type of damage involved.  It is easier for a 
  79. general-purpose proposal to rely on relatively simple and powerful 
  80. methods, even if those methods are less efficient.
  81.  
  82. Why, then, discuss a powerful, general purpose method that is 
  83. inefficient, fails to take advantage of the specific types of damage 
  84. involved, and which will almost certainly be superseded by future 
  85. technology?
  86.  
  87. The purpose of this paper is not to lay the groundwork for future 
  88. systems, but to answer a question: under what circumstances will 
  89. cryonics work?  The value of cryonics is clearly and decisively based on 
  90. technical capabilities that will not be developed for several decades 
  91. (or longer).  If some relatively simple proposal appears likely to work, 
  92. then the value of cryonics is established.  Whether or not that simple 
  93. proposal is actually used is irrelevant.  The fact that it could be used 
  94. in the improbable case that all other technical progress and all other 
  95. approaches fail is sufficient to let us decide today whether or not 
  96. cryonic suspension is of value.
  97.  
  98. The philosophical issues involved in this type of long range technical 
  99. forecasting and the methodologies appropriate to this area are addressed 
  100. by work in "exploratory engineering."[1]  The purpose of exploratory 
  101. engineering is to provide lower bounds on future technical capabilities 
  102. based on currently understood scientific principles.  A successful 
  103. example is Konstantin Tsiolkovsky's forecast around the turn of the 
  104. century that multi-staged rockets could go to the moon.  His forecast 
  105. was based on well understood principles of Newtonian mechanics.  While 
  106. it did not predict when such flights would take place, nor who would 
  107. develop the technology, nor the details of the Saturn V booster, it did 
  108. predict that the technical capability was feasible and would eventually 
  109. be developed.  In a similar spirit, we will discuss the technical 
  110. capabilities that should be feasible and what those capabilities should 
  111. make possible.
  112.  
  113. Conceptually, the approach that we will follow is simple:
  114.  
  115. 1.)     Determine the coordinates and orientations of all major molecules, 
  116. and store this information in a data base.
  117.  
  118. 2.)      Analyze the information stored in the data base with a computer 
  119. program which determines what changes in the existing structure should 
  120. be made to restore it to a healthy and functional state.
  121.  
  122. 3.)     Take the original molecules and move them, one at a time, back to 
  123. their correct locations.
  124.  
  125. The reader will no doubt agree that this proposal is conceptually simple 
  126. and remarkably powerful, but might be concerned about a number of 
  127. technical issues.  The major issues are addressed in the following 
  128. analysis.
  129.  
  130. An obvious inefficiency of this approach is that it will take apart and 
  131. then put back together again structures and whole regions that are in 
  132. fact functional or only slightly damaged.  Simply leaving a functional 
  133. region intact, or using relatively simple special case repair methods 
  134. for minor damage would be faster and less costly.  Despite these obvious 
  135. drawbacks, the general purpose approach demonstrates the principles 
  136. involved.  As long as the inefficiencies are not so extreme that they 
  137. make the approach infeasible or uneconomical in the long run, then this 
  138. simpler approach is easier to evaluate.
  139.  
  140.      Overview of the Brain.
  141.  
  142. The brain has a volume of 1350 cubic centimeters (about one and a half 
  143. quarts) and a weight of slightly more than 1400 grams (about three 
  144. pounds).  The smallest normal human brain weighed 1100 grams, while the 
  145. largest weighed 2050 grams [30, page 24].  It is almost 80% water by 
  146. weight.  The remaining 20% is slightly less than 40% protein, slightly 
  147. over 50% lipids, and a few percent of other material[16, page 419].  
  148. Thus, an average brain has slightly over 100 grams of protein, about 175 
  149. grams of lipids, and some 30 to 40 grams of "other stuff".
  150.  
  151.      How Many Molecules
  152.  
  153. If we are considering restoration down to the molecular level, an 
  154. obvious question is: how many molecules are there?  We can easily 
  155. approximate the answer, starting with the proteins.  An "average" 
  156. protein molecule has a molecular weight of about 50,000 amu.  One mole 
  157. of "average" protein is 50,000 grams (by definition), so the 100 grams 
  158. of protein in the brain is 100/50,000 or .002 moles.  One mole is 6.02 x 
  159. 10^23 molecules, so .002 moles is 1.2 x 10^21 molecules.
  160.  
  161. We proceed in the same way for the lipids (lipids are most often used to 
  162. make cell membranes) - a "typical" lipid might have a molecular weight 
  163. of 500 amu, which is 100 times less than the molecular weight of a 
  164. protein.  This implies the brain has about 175/500 x 6.02 x 10^23 or 
  165. about 2 x 10^23 lipid molecules.
  166.  
  167. Finally, water has a molecular weight of 18, so there will be about 1400 
  168. x 0.8/18 x 6.02 x 10^23 or about 4 x 10^25 water molecules in the brain.  
  169. In many cases a substantial percentage of water will have been replaced 
  170. with cryoprotectant during the process of suspension; glycerol at a 
  171. concentration of 4 molar or more, for example.  Both water and glycerol 
  172. will be treated in bulk, and so the change from water molecules to 
  173. glycerol (or other cryoprotectants) should not have a significant impact 
  174. on the calculations that follow.
  175.  
  176. These numbers are fundamental.  Repair of the brain down to the 
  177. molecular level will require that we cope with them in some fashion.
  178.  
  179.      How Much Time
  180.  
  181. Another parameter whose value we must decide is the amount of repair 
  182. time per molecule.  We assume that such repair time includes the time 
  183. required to determine the location of the molecule in the frozen tissue 
  184. and the time required to restore the molecule to its correct location, 
  185. as well as the time to diagnose and repair any structural defects in the 
  186. molecule.  The computational power required to analyze larger-scale 
  187. structural damage - e.g., this mitochondria has suffered damage to its 
  188. internal membrane structure (so called "flocculant densities") - should 
  189. be less than the power required to analyze each individual molecule.  An 
  190. analysis at the level of sub-cellular organelles involves several orders 
  191. of magnitude fewer components and will therefore require correspondingly 
  192. less computational power.  Analysis at the cellular level involves even 
  193. fewer components.  We therefore neglect the time required for these 
  194. additional computational burdens.  The total time required for repair is 
  195. just the sum over all molecules of the time required by one repair 
  196. device to repair that molecule  divided by the number of repair devices.  
  197. The more repair devices there are, the faster the repair will be.  The 
  198. more molecules there are, and the more time it takes to repair each 
  199. molecule, the slower repair will be.
  200.  
  201. The time required for a ribosome to manufacture a protein molecule of 
  202. 400 amino acids is about 10 seconds[14, page 393], or about 25 
  203. milliseconds to add each amino acid.  DNA polymerase III can add an 
  204. additional base to a replicating DNA strand in about 7 milliseconds[14, 
  205. page 289].  In both cases, synthesis takes place in solution and 
  206. involves significant delays while the needed components diffuse to the 
  207. reactive sites.  The speed of assembler-directed reactions is likely to 
  208. prove faster than current biological systems.  The arm of an assembler 
  209. should be capable of making a complete motion and causing a single 
  210. chemical transformation in about a microsecond[85].  However, we will 
  211. conservatively base our computations on the speed of synthesis already 
  212. demonstrated by biological systems, and in particular on the slower 
  213. speed of protein synthesis.
  214.  
  215. We must do more than synthesize the required molecules - we must analyze 
  216. the existing molecules, possibly repair them, and also move them from 
  217. their original location to the desired final location.  Existing 
  218. antibodies can identify specific molecular species by selectively 
  219. binding to them, so identifying individual molecules is feasible in 
  220. principle.  Even assuming that the actual technology employed is 
  221. different it seems unlikely that such analysis will require 
  222. substantially longer than the synthesis time involved, so it seems 
  223. reasonable to multiply the synthesis time by a factor of a few to 
  224. provide an estimate of time spent per molecule.  This should, in 
  225. principle, allow time for the complete disassembly and reassembly of the 
  226. selected molecule using methods no faster than those employed in 
  227. biological systems.  While the precise size of this multiplicative 
  228. factor can reasonably be debated, a factor of 10 should be sufficient.  
  229. The total time required to simply move a molecule from its original 
  230. location to its correct final location in the repaired structure should 
  231. be smaller than the time required to disassemble and reassemble it, so 
  232. we will assume that the total time required for analysis, repair and 
  233. movement is 100 seconds per protein molecule.
  234.  
  235.      Temperature of Analysis
  236.  
  237. Warming the tissue before determining its molecular structure creates 
  238. definite problems: everything will move around.  A simple solution to 
  239. this problem is to keep the tissue frozen until after all the desired 
  240. structural information is recovered.  In this case the analysis will 
  241. take place at a low temperature.  Whether or not subsequent operations 
  242. should be performed at the same low temperature is left open.  A later 
  243. section considers the various approaches that can be taken to restore 
  244. the structure after it has been analyzed.
  245.  
  246.      Repair or Replace?
  247.  
  248. In practice, most molecules will probably be intact - they would not 
  249. have to be either disassembled or reassembled.  This should greatly 
  250. reduce repair time.  On a more philosophical note, existing biological 
  251. systems generally do not bother to repair macromolecules (a notable 
  252. exception is DNA - a host of molecular mechanisms for the repair of this 
  253. molecule are used in most organisms).  Most molecules are generally used 
  254. for a period of time and then broken down and replaced.  There is a slow 
  255. and steady turnover of molecular structure - the atoms in the roast beef 
  256. sandwich eaten yesterday are used today to repair and replace muscles, 
  257. skin, nerve cells, etc.  If we adopted nature's philosophy we would 
  258. simply discard and replace any damaged molecules, greatly simplifying 
  259. molecular "repair".
  260.  
  261. Carried to its logical conclusion, we would discard and replace all  the 
  262. molecules in the structure.  Having once determined the type, location 
  263. and orientation of a molecule in the original (frozen) structure, we 
  264. would simply throw that molecule out without further examination and 
  265. replace it.   This requires only that we be able to identify the 
  266. location and type of individual molecules.  It would not be necessary to 
  267. determine if the molecule was damaged, nor would it be necessary to 
  268. correct any damage found.  By definition, the replacement molecule would 
  269. be taken from a stock-pile of structurally correct molecules that had 
  270. been previously synthesized, in bulk, by the simplest and most 
  271. economical method available.
  272.  
  273. Discarding and replacing even a few atoms might disturb some people.  
  274. This can be avoided by analyzing and repairing any damaged molecules.  
  275. However, for those who view the simpler removal and replacement of 
  276. damaged molecules as acceptable, the repair process can be significantly 
  277. simplified.  For purposes of this paper, however, we will continue to 
  278. use the longer time estimate based on the premise that full repair of 
  279. every molecule is required.  This appears to be conservative.   (Those 
  280. who feel that replacing their atoms will change their identity should 
  281. think carefully before eating their next meal!)
  282.  
  283.      Total Repair Machine Seconds
  284.  
  285. We shall assume that the repair time for other molecules is similar per 
  286. unit mass.  That is, we shall assume that the repair time for the lipids 
  287. (which each weigh about 500 amu, 100 times less than a protein) is about 
  288. 100 times less than the repair time for a protein.  The repair time for 
  289. one lipid molecule is assumed to be 1 second.  We will neglect water 
  290. molecules in this analysis, assuming that they can be handled in bulk.
  291.  
  292. We have assumed that the time required to analyze and synthesize an 
  293. individual molecule will dominate the time required to determine its 
  294. present location, the time required to determine the appropriate 
  295. location it should occupy in the repaired structure, and the time 
  296. required to put it in this position.  These assumptions are plausible 
  297. but will be considered further when the methods of gaining access to and 
  298. of moving molecules during the repair process are considered.
  299.  
  300. This analysis accounts for the bulk of the molecules - it seems unlikely 
  301. that other molecular species will add significant additional repair 
  302. time.
  303.  
  304. Based on these assumptions, we find that we require 100 seconds x 1.2 x 
  305. 10^21 protein molecules + 1 second times 2 x 10^23 lipids, or 3.2 x 
  306. 10^23 repair-machine-seconds.  This number is not as fundamental as the 
  307. number of molecules in the brain.  It is based on the (probably 
  308. conservative) assumption that repair of 50,000 amu requires 100 seconds.  
  309. Faster repair would imply repair could be done with fewer repair 
  310. machines, or in less time.
  311.  
  312.      How Many Repair Machines
  313.  
  314. If we now fix the total time required for repair, we can determine the 
  315. number of repair devices that must function in parallel.  We shall 
  316. rather arbitrarily adopt 10^8 seconds, which is very close to three 
  317. years, as the total time in which we wish to complete repairs.
  318.  
  319. If the total repair time is 10^8 seconds, and we require 3.2 x 10^23 
  320. repair-machine-seconds, then we require 3.2 x 10^15 repair machines for 
  321. complete repair of the brain.   This corresponds to 3.2 x 10^15 / (6.02 
  322. x 10^23) or 5.3 x 10^-9 moles, or 5.3 nanomoles of repair machines.  If 
  323. each repair device weighs 10^9 to 10^10 amu, then the total weight of 
  324. all the repair devices is 53 to 530 grams: a few ounces to just over a 
  325. pound.
  326.  
  327. Thus, the weight of repair devices required to repair each and every 
  328. molecule in the brain, assuming the repair devices operate no faster 
  329. than current biological methods, is about 4% to 40% of the total mass of 
  330. the brain.
  331.  
  332. By way of comparision, there are about 10^14 cells[44, page 3] in the 
  333. human body and each cell has about 10^7 ribosomes[14, page 652] giving 
  334. 10^21 ribosomes.  Thus, there are about six orders of magnitude more 
  335. ribosomes in the human body than the number of repair machines we 
  336. estimate are required to repair the human brain.
  337.  
  338. It seems unlikely that either more or larger repair devices are 
  339. inherently required.  However, it is comforting to know that errors in 
  340. these estimates of even several orders of magnitude can be easily 
  341. tolerated.  A requirement for 530 kilograms of repair devices (1,000 to 
  342. 10,000 times more than we calculate is needed) would have little 
  343. practical impact on feasibility.  Although repair scenarios that involve 
  344. deployment of the repair devices within the volume of the brain could 
  345. not be used if we required 530 kilograms of repair devices, a number of 
  346. other repair scenarios would still work - one such approach is discussed 
  347. in this paper.  Given that nanotechnology is feasible, manufacturing 
  348. costs for repair devices will be small.  The cost of even 530 kilograms 
  349. of repair devices should eventually be significantly less than a few 
  350. hundred dollars.  The feasibility of repair down to the molecular level 
  351. is insensitive to even large errors in the projections given here.
  352.  
  353.  
  354. THE REPAIR PROCESS
  355.  
  356. We now turn to the physical deployment of these repair devices.  That 
  357. is, although the raw number of repair devices is sufficient, we must 
  358. devise an orderly method of deploying these repair devices so they can 
  359. carry out the needed repairs.
  360.  
  361.      Other Proposals: On-board Repair
  362.  
  363. We shall broadly divide repair scenarios into two classes:  on-board and 
  364. off-board.  In the on-board scenarios, the repair devices are deployed 
  365. within the volume of the brain.  Existing structures are disassembled in 
  366. place, their component molecules examined and repaired, and rebuilt on 
  367. the spot.  (We here class as "on-board" those scenarios in which the 
  368. repair devices operate within the physical volume of the brain, even 
  369. though there might be substantial off-board support.  That is, there 
  370. might be a very large computer outside the tissue directing the repair 
  371. process, but we would still refer to the overall repair approach as "on-
  372. board").  The on-board repair scenario has been considered in some 
  373. detail by Drexler[18].  We will give a brief outline of the on-board 
  374. repair scenario here, but will not consider it in any depth.  For 
  375. various reasons, it is quite plausible that on-board repair scenarios 
  376. will be developed before off-board repair scenarios.
  377.  
  378. The first advantage of on-board repair is an easier evolutionary path 
  379. from partial repair systems deployed in living human beings to the total 
  380. repair systems required for repair of the more extensive damage found in 
  381. the person who has been cryonically suspended.  That is, a simple repair 
  382. device for finding and removing fatty deposits blocking the circulatory 
  383. system could be developed and deployed in living humans[2], and need not 
  384. deal with all the problems involved in total repair.  A more complex 
  385. device, developed as an incremental improvement, might then repair more 
  386. complex damage (perhaps identifying and killing cancer cells) again 
  387. within a living human.  Once developed, there will be continued pressure 
  388. for evolutionary improvements in on-board repair capabilities which 
  389. should ultimately lead to repair of virtually arbitrary damage.  This 
  390. evolutionary path should eventually produce a device capable of 
  391. repairing frozen tissue.
  392.  
  393. It is interesting to note that "At the end of this month [August 1990], 
  394. MITI's Agency of Industrial Science and Technology (AIST) will submit a 
  395. budget request for 430 million ($200,000) to launch a 'microrobot' 
  396. project next year, with the aim of developing tiny robots for the 
  397. internal medical treatment and repair of human beings.  ... MITI is 
  398. planning to pour 425,000 million ($170 million) into the microrobot 
  399. project over the next ten years..."[86].  Iwao Fujimasa said their 
  400. objective is a robot less than .04 inches in size that will be able to 
  401. travel through veins and inside organs[17, 20].  While substantially 
  402. larger than the proposals considered here, the direction of future 
  403. evolutionary improvements should be clear.
  404.  
  405. A second advantage of on-board repair is emotional.  In on-board repair, 
  406. the original structure (you) is left intact at the macroscopic and even 
  407. light microscopic level.  The disassembly and reassembly of the 
  408. component molecules is done at a level smaller than can be seen, and 
  409. might therefore prove less troubling than other forms of repair in which 
  410. the disassembly and reassembly processes are more visible.  Ultimately, 
  411. though, correct restoration of the structure is the overriding concern.
  412.  
  413. A third advantage of on-board repair is the ability to leave functional 
  414. structures intact.  That is, in on-board repair we can focus on those 
  415. structures that are damaged, while leaving working structures alone.  If 
  416. minor damage has occured, then an on-board repair system need make only 
  417. minor repairs.
  418.  
  419. The major drawback of on-board repair is the increased complexity of the 
  420. system.  As discussed earlier, this is only a drawback when the design 
  421. tools and the resources available for the design are limited.  We can 
  422. reasonably presume that future design tools and future resources will 
  423. greatly exceed present efforts.  Developments in computer aided design 
  424. of complex systems will put the design of remarkably complex systems 
  425. within easy grasp.
  426.  
  427. In on-board repair, we might first logically partition the volume of the 
  428. brain into a matrix of cubes, and then deploy each repair device in its 
  429. own cube.  Repair devices would first get as close as possible to their 
  430. assigned cube by moving through the circulatory system (we presume it 
  431. would be cleared out as a first step) and would then disassemble the 
  432. tissue between them and their destination.  Once in position, each 
  433. repair device would analyse the tissue in its assigned volume and peform 
  434. any repairs required.
  435.  
  436.      The Current Proposal: Off-Board Repair
  437.  
  438. The second class of repair scenarios, the off-board scenarios, allow the 
  439. total volume of repair devices to greatly exceed the volume of the human 
  440. brain.
  441.  
  442. The primary advantage of off-board repair is conceptual simplicity.  It 
  443. employees simple brute force to insure that a solution is feasible and 
  444. to avoid complex design issues.  As discussed earlier, these are 
  445. virtures in thinking about the problem today but are unlikely to carry 
  446. much weight in the future when an actual system is being designed.
  447.  
  448. The other advantages of this approach are fairly obvious.  Lingering 
  449. concerns about volume and heat dissipation can be eliminated.  If a ton 
  450. of repair devices should prove necessary, then a ton can be provided.  
  451. Concerns about design complexity can be greatly reduced.  Off-board 
  452. repair scenarios do not require that the repair devices be mobile - 
  453. simplifying communications and power distribution, and eliminating the 
  454. need for locomotor capabilities and navigational abilities.  The only 
  455. previous paper on off-board repair scenarios was by Merkle[101].
  456.  
  457. Off-board repair scenarios can be naturally divided into three phases.  
  458. In the first phase, we must analyze the structure to determine its 
  459. state.  The primary purpose of this phase is simply to gather 
  460. information about the structure, although in the process the disassembly 
  461. of the structure into its component molecules will also take place.  
  462. Various methods of gaining access to and analyzing the overall structure 
  463. are feasible - in this paper we shall primarily consider one approach.
  464.  
  465. We shall presume that the analysis phase takes place while the tissue is 
  466. still frozen.  While the exact temperature is left open, it seems 
  467. preferable to perform analysis prior to warming.  The thawing process 
  468. itself causes damage and, once thawed, continued deterioration will 
  469. proceed unchecked by the mechanisms present in healthy tissue.  This 
  470. cannot be tolerated during a repair time of several years.  Either 
  471. faster analysis or some means of blocking deterioration would have to be 
  472. used if analysis were to take place after warming.  We will not explore 
  473. these possibilities here (although this is worthwhile).  The temperature 
  474. at which other phases takes place is left open.
  475.  
  476. The second phase of off-board repair is determination of the healthy 
  477. state.  In this phase, the structural information derived from the 
  478. analysis phase is used to determine what the healthy state of the tissue 
  479. had been prior to suspension and any preceding illness.  This phase 
  480. involves only computation based on the information provided by the 
  481. analysis phase.
  482.  
  483. The third phase is repair.  In this phase, we must restore the structure 
  484. in accordance with the blue-print provided by the second phase, the 
  485. determination of the healthy state.
  486.  
  487.      Intermediate States During Off-Board Repair
  488.  
  489. Repair methods in general start with frozen tissue, and end with healthy 
  490. tissue.  The nature of the intermediate states characterizes the 
  491. different repair approaches.  In off-board repair the tissue undergoing 
  492. repair must pass through three highly characteristic states, described 
  493. in the following three paragraphs.
  494.  
  495. The first state is the starting state, prior to any repair efforts.  The 
  496. tissue is frozen (unrepaired).
  497.  
  498. In the second state, immediately following the analysis phase, the 
  499. tissue has been disassembled into its individual molecules.  A detailed 
  500. structural data base has been built which provides a  description of the 
  501. location, orientation, and type of each molecule, as discussed earlier.  
  502. For those who are concerned that their identity or "self" is dependent 
  503. in some fundamental way on the specific atoms which compose their 
  504. molecules, the original molecules can be retained in a molecular "filing 
  505. cabinet."  While keeping physical track of the original molecules is 
  506. more difficult technically, it is feasible and does not alter off-board 
  507. repair in any fundamental fashion.
  508.  
  509. In the third state, the tissue is restored and fully functional.
  510.  
  511. By characterizing the intermediate state which must be achieved during 
  512. the repair process, we reduce the problem from "Start with frozen tissue 
  513. and generate healthy tissue" to "Start with frozen tissue and generate a 
  514. structural data base and a molecular filing cabinet.  Take the 
  515. structural data base and the molecular filing cabinet and generate 
  516. healthy tissue."  It is characteristic of off-board repair that we 
  517. disassemble the molecular structure into its component pieces prior to 
  518. attempting repair.
  519.  
  520. As an example, suppose we wish to repair a car.  Rather than try and 
  521. diagnose exactly what's wrong, we decide to take the car apart into its 
  522. component pieces.  Once the pieces are spread out in front of us, we can 
  523. easily clean each piece, and then reassemble the car.  Of course, we'll 
  524. have to keep track of where all the pieces go so we can reassemble the 
  525. structure, but in exchange for this bookkeeping task we gain a 
  526. conceptually simple method of insuring that we actually can get access 
  527. to everything and repair it.  While this is a rather extreme method of 
  528. repairing a broken carburetor, it certainly is a good argument that we 
  529. should be able to repair even rather badly damaged cars.  So, too, with 
  530. off-board repair.  While it might be an extreme method of fixing any 
  531. particular form of damage, it provides a good argument that damage can 
  532. be repaired under a wide range of circumstances.
  533.  
  534.           Off-Board Repair is the Best that can be Achieved
  535.  
  536. Regardless of the initial level of damage, regardless of the functional 
  537. integrity or lack thereof of any or all of the frozen structure, 
  538. regardless of whether easier and less exhaustive techniques might or 
  539. might not work, we can take any frozen structure and convert it into the 
  540. canonical state described above.  Further, this is the best that we can 
  541. do.  Knowing the type, location and orientation of every molecule in the 
  542. frozen structure under repair and retaining the actual physical 
  543. molecules (thus avoiding any philosophical objections that replacing the 
  544. original molecules might somehow diminish or negate the individuality of 
  545. the person undergoing repair) is the best that we can hope to achieve.  
  546. We have reached some sort of limit with this approach, a limit that will 
  547. make repair feasible under circumstances which would astonish most 
  548. people today.
  549.  
  550. One particular approach to off-board repair is divide-and-conquer.  This 
  551. method is one of the technically simplest approaches.  We discuss this 
  552. method in the following section.
  553.  
  554.      Divide-and-Conquer
  555.  
  556. Divide-and-conquer is a general purpose problem-solving method 
  557. frequently used in computer science and elsewhere.  In this method, if a 
  558. problem proves too difficult to solve it is first divided into sub-
  559. problems, each of which is solved in turn.  Should the sub-problems 
  560. prove too difficult to solve, they are in turn divided into sub-sub-
  561. problems.  This process is continued until the original problem is 
  562. divided into pieces that are small enough to be solved by direct 
  563. methods.
  564.  
  565. If we apply divide-and-conquer to the analysis of a physical object - 
  566. such as the brain - then we must be able to physically divide the object 
  567. of analysis into two pieces and recursively apply the same method to the 
  568. two pieces.   This means that we must be able to divide a piece of 
  569. frozen tissue, whether it be the entire brain or some smaller part, into 
  570. roughly equal halves.  Given that tissue at liquid nitrogen temperatures 
  571. is already prone to fracturing, it should require only modest effort to 
  572. deliberately induce a fracture that would divide such a piece into two 
  573. roughly equal parts.  Fractures made at low temperatures (when the 
  574. material is below the glass transition temperature) are extremely clean, 
  575. and result in little or no loss of structural information.   Indeed, 
  576. freeze fracture techniques are used for the study of synaptic 
  577. structures.  Hayat [40, page 398] says "Membranes split during freeze-
  578. fracturing along their central hydrophobic plane, exposing 
  579. intramembranous surfaces.  ...  The fracture plane often follows the 
  580. contours of membranes and leaves bumps or depressions where it passes 
  581. around vesicles and other cell organelles.  ... The fracturing process 
  582. provides more accurate insight into the molecular architecture of 
  583. membranes than any other ultrastructural method."  It seems unlikely 
  584. that the fracture itself will result in any significant loss of 
  585. structural information.
  586.  
  587. The freshly exposed faces can now be analyzed by various surface 
  588. analysis techniques.  A review article in Science, "The Children of the 
  589. STM,"  supports the idea that such surface analysis techniques can 
  590. recover remarkably detailed information.  For example, optical 
  591. absorption microscopy "...generates an absorption spectrum of the 
  592. surface with a resolution of 1 nanometer [a few atomic diameters]."  
  593. Science quotes Kumar Wickramasinghe of IBM's T. J. Watson Research 
  594. Center as saying: "We should be able to record the spectrum of a single 
  595. molecule" on a surface. Williams and Wickramasinghe said [51] "The 
  596. ability to measure variations in chemical potential also allows the 
  597. possibility of selectively identifying subunits of biological 
  598. macromolecules either through a direct measurement of their chemical-
  599. potential gradients or by decorating them with different metals.  This 
  600. suggest a potentially simple method for sequencing DNA."   Several other 
  601. techniques are discussed in the Science article.  While current devices 
  602. are large, the fundamental physical principles on which they rely do not 
  603. require large size.  Many of the devices depend primarily on the 
  604. interaction between a single atom at the tip of the STM probe and the 
  605. atoms on the surface of the specimen under analysis.  Clearly, 
  606. substantial reductions in size in such devices are feasible[ft. 18].
  607.  
  608. High resolution optical techniques can also be employed.  Near field 
  609. microscopy, employing light with a wavelength of hundreds of nanometers, 
  610. has achieved a resolution of 12 nanometers (much smaller than a 
  611. wavelength of light).  To quote the abstract of a recent review article 
  612. on the subject:  "The near-field optical interaction between a sharp 
  613. probe and a sample of interest can be exploited to image, 
  614. spectroscopically probe, or modify surfaces at a resolution (down to ~12 
  615. nm) inaccessible by traditional far-field techniques.  Many of the 
  616. attractive features of conventional optics are retained, including 
  617. noninvasiveness, reliability, and low cost.  In addition, most optical 
  618. contrast mechanisms can be extended to the near-field regime, resulting 
  619. in a technique of considerable versatility.  This versatility is 
  620. demonstrated by several examples, such as the imaging of nanometric-
  621. scale features in mammalian tissue sections and the creation of 
  622. ultrasmall, magneto-optic domains having implications for high-density 
  623. data storage.  Although the technique may find uses in many diverse 
  624. fields, two of the most exciting possibilities are localized optical 
  625. spectroscopy of semiconductors and the flourescence imaging of living 
  626. cells."[111].  Another article said: "Our signals are currently of such 
  627. magnitude that almost any application originally conceived for far-field 
  628. optics can now be extended to the near-field regime, including:  
  629. dynamical studies at video rates and beyond; low noise, high resolution 
  630. spectroscopy (also aided by the negligible auto-fluorescence of the 
  631. probe); minute differential absorption measurements; magnetooptics; and 
  632. superresolution lithography."[100].
  633.  
  634.      How Small are the Pieces
  635.  
  636. The division into halves continues until the pieces are small enough to 
  637. allow direct analysis by repair devices.  If we presume that division 
  638. continues until each repair device is assigned its own piece to repair, 
  639. then there will be both 3.2 x 10^15 repair devices and pieces.  If the 
  640. 1350 cubic centimeter volume of the brain is divided into this many 
  641. cubes, each such cube would be about .4 microns (422 nanometers) on a 
  642. side.  Each cube could then be directly analyzed (disassembled into its 
  643. component molecules) by a repair device during our three-year repair 
  644. period.
  645.  
  646. One might view these cubes as the pieces of a three-dimensional jig-saw 
  647. puzzle, the only difference being that we have cheated and carefully 
  648. recorded the position of each piece.  Just as the picture on a jig-saw 
  649. puzzle is clearly visible despite the fractures between the pieces, so 
  650. too the three-dimensional "picture" of the brain is clearly visible 
  651. despite its division into pieces[ft. 19].
  652.  
  653.      Moving Pieces
  654.  
  655. There are a great many possible methods of handling the mechanical 
  656. problems involved in dividing and moving the pieces.  It seems unlikely 
  657. that mechanical movement of the pieces will prove an insurmountable 
  658. impediment, and therefore we do not consider it in detail.  However, for 
  659. the sake of concreteness, we outline one possibility.  Human arms are 
  660. about 1 meter in length, and can easily handle objects from 1 to 10 
  661. centimeters in size (.01 to .1 times the length of the arm).  It should 
  662. be feasible, therefore, to construct a series of progressively shorter 
  663. arms which handle pieces of progressively smaller size.  If each set of 
  664. arms were ten times shorter than the preceding set, then we would have 
  665. devices with arms of:  1 meter, 1 decimeter, 1 centimeter, 1 millimeter, 
  666. 100 microns, 10 microns, 1 micron, and finally .1 microns or 100 
  667. nanometers.  (Note that an assembler has arms roughly 100 nanometers 
  668. long).  Thus, we would need to design 8 different sizes of manipulators.  
  669. At each succeeding size the manipulators would be more numerous, and so 
  670. would be able to deal with the many more pieces into which the original 
  671. object was divided.  Transport and mechanical manipulation of an object 
  672. would be done by arms of the appropriate size.  As objects were divided 
  673. into smaller pieces that could no longer be handled by arms of a 
  674. particular size, they would be handed to arms of a smaller size.
  675.  
  676. If it requires about three years to analyze each piece, then the time 
  677. required both to divide the brain into pieces and to move each piece to 
  678. an immobile repair device can reasonably be neglected.   It seems 
  679. unlikely that moving the pieces will take a significant fraction of 
  680. three years.
  681.  
  682.      Memory Requirements
  683.  
  684. The information storage requirements for a structural data-base that 
  685. holds the detailed description and location of each major molecule in 
  686. the brain can be met by projected storage methods.  DNA has an 
  687. information storage density of about 10^21 bits/cubic centimeter.  
  688. Conceptually similar but somewhat higher density molecular "tape" 
  689. systems that store 10^22 bits/cubic centimeter [1] should be quite 
  690. feasible.  If we assume that every lipid molecule is "significant" but 
  691. that water molecules, simple ions and the like are not, then the number 
  692. of significant molecules is roughly the same as the number of lipid 
  693. molecules[ft. 20] (the number of protein molecules is more than two 
  694. orders of magnitude smaller, so we will neglect it in this estimate).  
  695. The digital description of these 2 x 10^23 significant molecules 
  696. requires 10^25 bits (assuming that 50 bits are required to encode the 
  697. location and description of each molecule).  This is about 1,000 cubic 
  698. centimeters (1 liter, roughly a quart) of "tape" storage.  If a storage 
  699. system of such capacity strikes the reader as infeasible, consider that 
  700. a human being has about 10^14 cells[44, page 3] and that each cell 
  701. stores 10^10 bits in its DNA[14].  Thus, every human that you see is a 
  702. device which (among other things) has a raw storage capacity of 10^24 
  703. bits - and human beings are unlikely to be optimal information storage 
  704. devices.
  705.  
  706. A simple method of reducing storage requirements by several orders of 
  707. magnitude would be to analyze and repair only a small amount of tissue 
  708. at a time.   This would eliminate the need to store the entire 10^25 bit 
  709. description at one time.  A smaller memory could hold the description of 
  710. the tissue actually under repair, and this smaller memory could then be 
  711. cleared and re-used during repair of the next section of tissue.
  712.  
  713.      Computational Requirements
  714.  
  715. The computational power required to analyze a data base with 10^25 bits 
  716. is well within known theoretical limits[9,25,32].  It has been seriously 
  717. proposed that it might be possible to increase the total computational 
  718. power achievable within the universe beyond any fixed bound in the 
  719. distant future[52, page 658].  More conservative lower bounds to nearer-
  720. term future computational capabilities can be derived from the 
  721. reversible rod-logic molecular model of computation, which dissipates 
  722. about 10^-23 joules per gate operation when operating at 100 picoseconds 
  723. at room temperature[85].  A wide range of other possibilities exist.  
  724. Likharev proposed a computational element based on Josephson junctions 
  725. which operates at 4 K and in which energy dissipation per switching 
  726. operation is 10^-24 joules with a switching time of 10^-9 seconds[33, 
  727. 43].  Continued evolutionary reductions in the size and energy 
  728. dissipation of properly designed NMOS[113] and CMOS[112] circuits should 
  729. eventually produce logic elements that are both very small (though 
  730. significantly larger than Drexler's proposals) and which dissipate 
  731. extraordinarily small amounts of energy per logic operation.  
  732. Extrapolation of current trends suggest that energy dissipations in the 
  733. 10-23 joule range will be achieved before 2030[31, fig. 1].  There is no 
  734. presently known reason to expect the trend to stop or even slow down at 
  735. that time[9,32].
  736.  
  737. Energy costs appear to be the limiting factor in rod logic (rather than 
  738. the number of gates, or the speed of operation of the gates).  Today, 
  739. electric power costs about 10 cents per kilowatt hour.  Future costs of 
  740. power will almost certainly be much lower.  Molecular manufacturing 
  741. should eventually sharply reduce the cost of solar cells and increase 
  742. their efficiency close to the theoretical limits.  With a manufacturing 
  743. cost of under 10 cents per kilogram[85] the cost of a one square meter 
  744. solar cell will be less than a penny.  As a consequence the cost of 
  745. solar power will be dominated by other costs, such as the cost of the 
  746. land on which the solar cell is placed.  While solar cells can be placed 
  747. on the roofs of existing structures or in otherwise unused areas, we 
  748. will simply use existing real estate prices to estimate costs.  Low cost 
  749. land in the desert south western United States can be purchased for less 
  750. than $1,000 per acre.  (This price corresponds to about 25 cents per 
  751. square meter, significantly larger than the projected future 
  752. manufacturing cost of a one square meter solar cell).  Land elsewhere in 
  753. the world (arid regions of the Australian outback, for example) is much 
  754. cheaper.  For simplicity and conservatism, though, we'll simply adopt 
  755. the $1,000 per acre price for the following calculations.  Renting an 
  756. acre of land for a year at an annual price of 10% of the purchase price 
  757. will cost $100.  Incident sunlight at the earth's surface provides a 
  758. maximum of 1,353 watts per square meter, or 5.5 x 10^6 watts per acre.  
  759. Making allowances for inefficiencies in the solar cells, atmospheric 
  760. losses, and losses caused by the angle of incidence of the incoming 
  761. light reduces the actual average power production by perhaps a factor of 
  762. 15 to about 3.5 x 10^5 watts.  Over a year, this produces 1.1 x 10^13 
  763. joules or 3.1 x 10^6 kilowatt hours.  The land cost $100, so the cost 
  764. per joule is 0.9 nanocents and the cost per kilowatt hour is 3.3 
  765. millicents.  Solar power, once we can make the solar cells cheaply 
  766. enough, will be over several thousand times cheaper than electric power 
  767. is today.  We'll be able to buy over 10^15 joules for under $10,000.
  768.  
  769. While the energy dissipation per logic operation estimated by 
  770. Drexler[85] is about 10^-23 joules, we'll content ourselves with the 
  771. higher estimate of 10^-22 joules per logic operation.  Our 10^15 joules 
  772. will then power 10^37 gate operations: 10^12 gate operations for each 
  773. bit in the structural data base or 5 x 10^13 gate operations for each of 
  774. the 2 x 10^23 lipid molecules present in the brain.
  775.  
  776. It should be emphasized that in off-board repair warming of the tissue 
  777. is not an issue because the overwhelming bulk of the calculations and 
  778. hence almost all of the energy dissipation takes place outside the 
  779. tissue.   Much of the computation takes place when the original 
  780. structure has been entirely disassembled into its component molecules.
  781.  
  782.      How Much Is Enough?
  783.  
  784. Is this enough computational power?  We can get a rough idea of how much 
  785. computer power might be required if we draw an analogy from image 
  786. recognition.  The human retina performs about 100 "operations" per 
  787. pixel, and the human brain is perhaps 1,000 to 10,000 times larger than 
  788. the retina.  This implies that the human image recognition system can 
  789. recognize an object after devoting some 10^5 to 10^6 "operations" per 
  790. pixel.  (This number is also in keeping with informal estimates made by 
  791. individuals expert in computer image analysis).  Allowing for the fact 
  792. that such "retinal operations" are probably more complex than a single 
  793. "gate operation" by a factor of 1000 to 10,000, we arrive at 10^8 to 
  794. 10^10 gate operations per pixel - which is well below our estimate of 
  795. 10^12 operations per bit or 5 x 10^13 operations per molecule.
  796.  
  797. To give a feeling for the computational power this represents, it is 
  798. useful to compare it to estimates of the raw computational power of the 
  799. human brain.   The human brain has been variously estimated as being 
  800. able to do 10^13[50], 10^15 or 10^16[114] operations a second (where 
  801. "operation" has been variously defined but represents some relatively 
  802. simple and basic action)[ft. 21].  The 10^37 total logic operations will 
  803. support 10^29 logic operations per second for three years, which is the 
  804. raw computational power of something like 10^13 human beings (even when 
  805. we use the high end of the range for the computational power of the 
  806. human brain).  This is 10 trillion human beings, or some 2,000 times 
  807. more people than currently exist on the earth today.  By present 
  808. standards, this is a large amount of computational power.  Viewed 
  809. another way, if we were to divide the human brain into tiny cubes that 
  810. were about 5 microns on a side (less than the volume of a typical cell), 
  811. each such cube could receive the full and undivided attention of a 
  812. dedicated human analyst for a full three years.
  813.  
  814. The next paragraph analyzes memory costs, and can be skipped without 
  815. loss of continuity.
  816.  
  817. This analysis neglects the memory required to store the complete state 
  818. of these computations.  Because this estimate of computational abilities 
  819. and requirements depends on the capabilities of the human brain, we 
  820. might require an amount of memory roughly similar to the amount of 
  821. memory required by the human brain as it computes.  This might require 
  822. about 10^16 bits (10 bits per synapse) to store the "state" of the 
  823. computation.  (We assume that an exact representation of each synapse 
  824. will not be necessary in providing capabilities that are similar to 
  825. those of the human brain.  At worst, the behavior of small groups of 
  826. cells could be analyzed and implemented by the most efficient method, 
  827. e.g., a "center surround" operation in the retina could be implemented 
  828. as efficiently as possible, and would not require detailed modeling of 
  829. each neuron and synapse.  In point of fact, it is likely that algorithms 
  830. that are significantly different from the algorithms employed in the 
  831. human brain will prove to be the most efficient for this rather 
  832. specialized type of analysis, and so our use of estimates derived from 
  833. low-level parts-counts from the human brain are likely to be very 
  834. conservative).  For 10^13 programs each equivalent in analytical skills 
  835. to a single human being, this would require 10^29 bits.  At 100 cubic 
  836. nanometers per bit, this gives 10,000 cubic meters.  Using the cost 
  837. estimates provided by Drexler[85] this would be an uncomfortable 
  838. $1,000,000.  We can, however, easily reduce this cost by partitioning 
  839. the computation to reduce memory requirements.   Instead of having 10^13 
  840. programs each able to "think" at about the same speed as a human being, 
  841. we could have 10^10 programs each able to "think" at a speed 1,000 times 
  842. faster than a human being.  Instead of having 10 trillion dedicated 
  843. human analysts working for 3 years each, we would have 10 billion 
  844. dedicated human analysts working for 3,000 virtual years each.  The 
  845. project would still be completed in 3 calendar years, for each computer 
  846. "analyst" would be a computer program running 1,000 times faster than an 
  847. equally skilled human analyst.  Instead of analyzing the entire brain at 
  848. once, we would instead logically divide the brain into 1,000 pieces each 
  849. of about 1.4 cubic centimeters in size, and analyze each such piece 
  850. fully before moving on to the next piece.
  851.  
  852. This reduces our memory requirements by a factor of 1,000 and the cost 
  853. of that memory to a manageable $1,000.
  854.  
  855. It should be emphasized that the comparisons with human capabilities are 
  856. used only to illustrate the immense capabilities of 10^37 logic 
  857. operations.  It should not be assumed that the software that will 
  858. actually be used will have any resemblance to the behavior of the human 
  859. brain.
  860.  
  861.      More Computer Power
  862.  
  863. In the following paragraphs, we argue that even more computational power 
  864. will in fact be available, and so our margins for error are much larger.
  865.  
  866. Energy loss in rod logic, in Likharev's parametric quantron, in properly 
  867. designed NMOS and CMOS circuits, and in many other proposals for 
  868. computational devices is related to speed of operation.  By slowing down 
  869. the operating speed from 100 picoseconds to 100 nanoseconds or even 100 
  870. microseconds we should achieve corresponding reductions in energy 
  871. dissipation per gate operation.  This will allow substantial increases 
  872. in computational power for a fixed amount of energy (10^15 joules).  We 
  873. can both decrease the energy dissipated per gate operation (by operating 
  874. at a slower speed) and increase the total number of gate operations (by 
  875. using more gates).   Because the gates are very small to start with, 
  876. increasing their number by a factor of as much as 10^10 (to 
  877. approximately 10^27 gates) would still result in a total volume of 100 
  878. cubic meters (recall that each gate plus overhead is about 100 cubic 
  879. nanometers).  This is a cube less than 5 meters on a side.  Given that 
  880. manufacturing costs will eventually reflect primarily material and 
  881. energy costs, such a volume of slowly operating gates should be 
  882. economical and would deliver substantially more computational power per 
  883. joule.
  884.  
  885. We will not pursue this approach here for two main reasons.  First, 
  886. published analyses use the higher 100 picosecond speed of operation and 
  887. 10^-22 joules of energy dissipation[85].  Second, operating at 10^-22 
  888. joules at room temperature implies that most logic operations must be 
  889. reversible and that less than one logic operation in 30 can be 
  890. irreversible.  Irreversible logic operations (which erase information) 
  891. must inherently dissipate at least kT x ln(2) for fundamental 
  892. thermodynamic reasons.  The average thermal energy of a single atom or 
  893. molecule at a temperature T (measured in degrees K) is approximately kT 
  894. where k is Boltzman's constant.  At room temperature, kT is about 4 x 
  895. 10^-21 joules.  Thus, each irreversible operation will dissipate almost 
  896. 3 x 10^-21 joules.  The number of such operations must be limited if we 
  897. are to achieve an average energy dissipation of 10^-22 joules per logic 
  898. operation.
  899.  
  900. While it should be feasible to perform computations in which virtually 
  901. all logic operations are reversible (and hence need not dissipate any 
  902. fixed amount of energy per logic operation)[9,25,32,53], current 
  903. computer architectures might require some modification before they could 
  904. be adapted to this style of operation.  By contrast, it should be 
  905. feasible to use current computer architectures while at the same time 
  906. performing a major percentage (e.g., more than 99%) of their logic 
  907. operations in a reversible fashion.
  908.  
  909. Various electronic proposals show that almost all of the existing 
  910. combinatorial logic in present computers can be replaced with reversible 
  911. logic with no change in the instruction set that is executed[112, 113].  
  912. Further, while some instructions in current computers are irreversible 
  913. and hence must dissipate at least kT x ln(2) joules for each bit of 
  914. information erased, other instructions are reversible and need not 
  915. dissipate any fixed amount of energy if implemented correctly.  
  916. Optimizing compilers could then avoid using the irreversible machine 
  917. instructions and favor the use of the reversible instructions.  Thus, 
  918. without modifying the instruction set of the computer, we can make most 
  919. logic operations in the computer reversible.
  920.  
  921. Further work on reversible computation can only lower the minimum energy 
  922. expenditure per basic operation and increase the percentage of 
  923. reversible logic operations.  A mechanical logic proposal by the 
  924. author[105] eliminates most mechanisms of energy dissipation; it might 
  925. be possible to reduce energy dissipation to an extraordinary and 
  926. unexpected degree in molecular mechanical computers.  While it is at 
  927. present unclear how far the trend towards lower energy dissipation per 
  928. logic operation can go, it is clear that we have not yet reached a limit 
  929. and that no particular limit is yet visible.
  930.  
  931. We can also expect further decreases in energy costs.   By placing solar 
  932. cells in space the total incident sunlight per square meter can be 
  933. greatly increased (particularly if the solar cell is located closer to 
  934. the sun) while at the same time the total mass of the solar cell can be 
  935. greatly decreased.  Most of the mass in earth-bound structures is 
  936. required not for functional reasons but simply to insure structural 
  937. integrity against the forces of gravity and the weather.  In space both 
  938. these problems are virtually eliminated.  As a consequence a very thin 
  939. solar cell of relatively modest mass can have a huge surface area and 
  940. provide immense power at much lower costs than estimated here.
  941.  
  942. If we allow for the decreasing future cost of energy and the probability 
  943. that future designs will have lower energy dissipation than 10^-22 
  944. joules per logic operation, it seems likely that we will have a great 
  945. deal more computational power than required.  Even ignoring these more 
  946. than likely developments, we will have adequate computational power for 
  947. repair of the brain down to the molecular level.
  948.  
  949.      Chemical Energy of the Brain
  950.  
  951. Another issue is the energy involved in the complete disassembly and 
  952. reassembly of every molecule in the brain.  The total chemical energy 
  953. stored in the proteins and lipids of the human brain is quite modest in 
  954. comparison with 10^15 joules.  When lipids are burned, they release 
  955. about 9 kilocalories per gram.  (Calorie conscious dieters are actually 
  956. counting "kilocalories" - so a "300 Calorie Diet Dinner" really has 
  957. 300,000 calories or 1,254,000 joules).  When protein is burned, it 
  958. releases about 4 kilocalories per gram.  Given that there are 100 grams 
  959. of protein and 175 grams of lipid in the brain, this means there is 
  960. almost 2,000 kilocalories of chemical energy stored in the structure of 
  961. the brain, or about 8 x 10^6 joules.  This much chemical energy is over 
  962. 10^8 times less than the 10^15 joules that one person can reasonably 
  963. purchase in the future.  It seems unlikely that the construction of the 
  964. human brain must inherently require substantially more than 10^7 joules 
  965. and even more unlikely that it could require over 10^15 joules.  The 
  966. major energy cost in repair down to the molecular level appears to be in 
  967. the computations required to "think" about each major molecule in the 
  968. brain.
  969.  
  970.