home *** CD-ROM | disk | FTP | other *** search
/ Liren Large Software Subsidy 9 / 09.iso / e / e065 / 1.ddi / DNNABKP.INS < prev    next >
Encoding:
Text File  |  1991-08-28  |  4.2 KB  |  153 lines

  1. inst4.0        !107-Aug-90  (dnnabkp.ins)  DNNA InstaNet
  2. !****************************************************************
  3. !*                                *
  4. !*    Digital Neural Network Architecture Builder        *
  5. !*    with standard Delta-Rule Learning            *
  6. !****************************************************************
  7.  
  8. !    *** check that input / output PE count is non-zero
  9.  
  10. ?&In    1
  11. >bge    CheckOut
  12. @Err    "DNNA MUST have at least one input PE"
  13. :CheckOut
  14. ?&Out    1
  15. >bge    OutOK
  16. @Err    "DNNA MUST have at least one output PE"
  17. :OutOK
  18. ?&Hd1    1
  19. >bge    HidOK
  20. @Err    "DNNA MUST have at least one Hidden Layer 1 PE"
  21. :HidOK
  22.  
  23. !    *** Load the Control Strategy and LRS if needed
  24.  
  25. @LdCS    "backprop"        !control strategy
  26. @LdLR    "backprop"        !L/R schedule
  27.  
  28. =netn    "InstaNet (tm) Digital Neural Network Arch. version 2.0 07-Aug-90"
  29. =DLnF    0            !learn  re-display off
  30. =DRcF    0            !recall re-display off
  31.  
  32. !    *** Build the Input Layer ***
  33.  
  34. @LLdf                !load default layer to mi_layer structure
  35. =LDln    "In"            !layer name
  36. =Lpes    &In            !copy # of input PEs from menu
  37. =Ltrn    "Linear"        !buffer
  38. =x    100            !place to put layer on screen
  39. =y     80
  40. #Incl    "stdnwgtf.iif"        !standard # weight fields
  41. @LAdd                !add the input layer
  42.  
  43. !    *** Build the first hidden Layer ***
  44.  
  45. @LLdf                !start with default layer again
  46. =LDln    "Hidden 1"        !layer name
  47. =Lpes    &Hd1            !Proper number of PEs
  48. =Lsum    "DNNA"            !DNNA sum function
  49. =Ltrn    "DNNA"            !DNNA transfer function
  50. =Llrn    "Delta-Rule"        !Standard Delta learning rule
  51. +y    60            !up higher on display
  52. #Incl    "stdnwgtf.iif"        !standard # weight fields
  53. @LAdd
  54.  
  55. !    *** Connect Hidden Layer to Bias & Input Layers ***
  56.  
  57. =SPEl    LayN            !current layer
  58. @SlPE                !select it as destination (sb already)
  59. =NPEl    -1            !near to bias term (source)
  60. @NrPE
  61. =cnwt    1.0            !connection weight
  62. =cnty    WVar            !variable
  63. =cnsc    WAbs            !absolute
  64. @LCFl                !fully connect to bias element
  65. =NPEl    0            !input layer
  66. @NrPE
  67. @LCFl                !fully connect to input layer
  68. =n0    LayN            !save current layer for later
  69.  
  70. !    *** Build the Second hidden Layer ***
  71.  
  72. ?&Hd2    0
  73. >ble    NoHid2            !skip adding second hidden layer
  74.  
  75. @LLdf                !start with default layer again
  76. =LDln    "Hidden 2"        !layer name
  77. =Lpes    &Hd2            !Proper number of PEs
  78. =Lsum    "DNNA"            !DNNA sum function
  79. =Ltrn    "DNNA"            !DNNA transfer function
  80. =Llrn    "Delta-Rule"        !Standard Delta learning rule
  81. +y    60            !up higher on display
  82. #Incl    "stdnwgtf.iif"        !standard # weight fields
  83. @LAdd
  84.  
  85. !    *** Connect Hidden Layer 2 to Bias & Input Layers ***
  86.  
  87. =SPEl    LayN            !current layer
  88. @SlPE                !select it as destination (sb already)
  89. =NPEl    -1            !near to bias term (source)
  90. @NrPE
  91. @LCFl                !fully connect to bias element
  92. =NPEl    n0            !previous layer
  93. @NrPE
  94. @LCFl                !fully connect to input layer
  95. =n0    LayN            !save current layer for later
  96. :NoHid2
  97.  
  98. !    *** Build the output layer & connect it to prior layer & bias term ***
  99.  
  100. @LLdf                !load default layer to mi_layer structure
  101. =LDln    "Out"            !layer name
  102. =Lpes    &Out            !copy # of input PEs from menu
  103. =Lsum    "DNNA"            !DNNA sum function
  104. =Ltrn    "DNNA"            !DNNA transfer function
  105. =Llrn    "Delta-Rule"        !Standard  Delta learning rule
  106. +y    60
  107. #Incl    "stdnwgtf.iif"        !standard # weight fields
  108. @LAdd                !add the output layer
  109. =n7    LayN            !save for stdprobe
  110.  
  111. =SPEl    LayN            !current layer
  112. @SlPE                !select it as destination (sb already)
  113. =NPEl    -1            !near to bias term (source)
  114. @NrPE
  115. @LCFl                !fully connect to bias element
  116. =NPEl    n0            !previous layer
  117. @NrPE
  118. @LCFl                !fully connect to input layer
  119.  
  120. !    *** Select Control Strategy & L/R Schedule ***
  121.  
  122. @LLsl                !load super layer
  123. =Lctl    "backprop"        !backprop control strategy
  124. =Llrs    "backprop"        !backprop L/R Schedule
  125. =Llnn    "train"            !name of learn input
  126. =Lrcn    "test"            !name of recall output
  127. #Incl    "stdioset.iif"        !standard I/O settings
  128. =Lscl     -1.0            !input  low-value
  129. =Loff     1.0            !input  high-value
  130. =Llow     0.2            !output low-value
  131. =Lhgh     0.8            !output high-value
  132. =DLnN     1            !learn count for Check Points
  133. =MWLF     1            !turn on weight limiting
  134. =WtVl     0.99            !max value for weight limiting
  135. @SVsl                !save it back
  136. !
  137. =n5    0.0
  138. =n6    1.0
  139. =n4    &Out
  140. #Incl    "stdprobe.iif"        !Standard probe include file
  141. !
  142. =jogl    -.1            !lower limit for jog
  143. =jogh    +.1            !upper limit for jog
  144. =seed    257            !starting seed number
  145. @seed                !set the seed
  146. @Nini                !initialize the network
  147.  
  148. @LLsl                !load super layer
  149. =Lepc     0            !set learn counter to zero
  150. @SVsl                !save it back
  151. @EOF
  152.  
  153.