home *** CD-ROM | disk | FTP | other *** search
/ Chip 2007 January, February, March & April / Chip-Cover-CD-2007-02.iso / boot / i386 / rescue / etc / evms.conf < prev    next >
Text File  |  2006-11-29  |  8KB  |  270 lines

  1. # EVMS Configuration file
  2.  
  3. # This file is a useable sample.
  4. # Its location should be /etc/evms.conf
  5. # It contains the default values which will be used in the absence of a
  6. # configuration file or the absence of a configuration option being set.
  7.  
  8. # Global engine section
  9. engine {
  10.     mode        = readwrite
  11.  
  12.     # Possible values for debug_level in order are: critical, serious,
  13.     # error, warning, default, details, entry_exit, debug, extra, everything
  14.     #
  15.     # The default value is "default".  Only log entries designated at the
  16.     # debug_level or at a more severe level than the debug_level will be
  17.     # printed to the log.  Thus, a debug_level of "default" will also log
  18.     # critical, serious, error, and warning messages.  "critical" will
  19.     # produce the smallest log, and "everything" will produce the largest
  20.     # log.
  21.  
  22.     debug_level    = default
  23.  
  24.     log_file    = /var/log/evms-engine.log
  25.  
  26.     # Include microseconds in the log timestamps.  Default is "no".
  27.  
  28. #    log_usec    = yes
  29.  
  30.     # Include process IDs in the timestamps for log entries.  Default is
  31.     # "no", unless the Engine is running in a clustered environment, in
  32.     # which case PIDs are always included, since the Engine will have
  33.     # several threads running.
  34.  
  35. #    log_pid        = yes
  36.  
  37.     # Open the log file with O_SYNC so that all writes to the log file
  38.     # are guaranteed to be on the disk rather than just in cache.
  39.     # Default is "no".
  40.  
  41. #    sync_log    = no
  42.  
  43.     # The directory where EVMS puts its metadata backup files.
  44.  
  45.     metadata_backup_dir    = /var/evms/metadata_backups
  46.  
  47.     # Save a backup of the metadata after each successful save of a
  48.     # configuration change
  49.  
  50. #    auto_metadata_backup    = yes
  51. }
  52.  
  53. # Settings if the Engine is opened in daemon mode
  54. daemon {
  55.     debug_level    = default    # Same settings as available for
  56.                     # engine.debug_level
  57.  
  58.     log_file    = /var/log/evms-daemon.log
  59.  
  60.     # Include microseconds in the log timestamps.  Default is "no".
  61.  
  62. #    log_usec    = yes
  63.  
  64.     # Include process IDs in the timestamps for log entries.  Default is
  65.     # "no", unless the Engine is running in a clustered environment, in
  66.     # which case PIDs are always included, since the Engine will have
  67.     # several threads running.
  68.  
  69. #    log_pid        = yes
  70.  
  71.     # Open the log file with O_SYNC so that all writes to the log file
  72.     # are guaranteed to be on the disk rather than just in cache.
  73.     # Default is "no".
  74.  
  75. #    sync_log    = no
  76. }
  77.  
  78.  
  79. # Clustering section
  80.  
  81. clustering {
  82.  
  83.     # The number of seconds the engine/daemon should wait for a valid
  84.     # cluster membership to show up.
  85.  
  86.     membership_timeout = 10
  87. }
  88.  
  89.  
  90. # Activation section
  91. #
  92. # Use this section to tell EVMS which volumes and objects should be activated.
  93.  
  94. activate {
  95.  
  96.     # Names of volumes and objects that should be activated.
  97.     #
  98.     # Names can be specified using "*", "?", and "[...]" notations.
  99.  
  100.     include = [ * ]
  101.  
  102.     # Names of volumes and objects that should not be activated.
  103.     #
  104.     # Names can be specified using "*", "?", and "[...]" notations.
  105.  
  106.     exclude = [ ]
  107. }
  108.  
  109.  
  110. # Local disk manager sections
  111.  
  112. # Use this section to tell EVMS where to look for devices and which devices to
  113. # include or exclude on a system without sysfs (i.e., 2.4 kernels). If you are
  114. # using a 2.6 kernel, you'll likely want to see the "sysfs_devices" section
  115. # instead of this one.
  116.  
  117. legacy_devices {
  118.  
  119.     # "scan" is the location of the dev node tree.
  120.  
  121.     scan = /dev
  122.  
  123.     # "directories" is any directories under the "scan" directory you want
  124.     # searched recursively. On systems running devfs without devfsd, the
  125.     # default settings will find all IDE and SCSI disks.
  126.  
  127.     directories = [ ide scsi dasd ]
  128.  
  129.     # "include" are the block devices found in the dev tree that you want
  130.     # EVMS to use as disks.  By default, this will search for traditional
  131.     # style device names (e.g., hda, sdb).  If you know the exact disks that
  132.     # your system uses, you can specify them here to cut down on unnecessary
  133.     # searching.
  134.     #
  135.     # If you are running devfs with devfsd, the default settings will find
  136.     # the old-style names (eg. hda). If you wish to use the new-style names
  137.     # (eg. ide/host0/bus0/target0/lun0/disc), simply remove "sd?" and "hd?"
  138.     # from the list below. If you are running devfs without devfsd, the
  139.     # new-style names will be used.
  140.     #
  141.     # Block device names can be specified using "*", "?", and "[...]"
  142.     # notations.
  143.  
  144.     include = [ hd? sd? dasd? disc ]
  145.  
  146.     # "exclude" are the block devices found in the dev tree that you don't
  147.     # want EVMS to use as disks.  Entries here will override any possible
  148.     # matches from the "include" setting.  Thus, if you specify "hd?" in
  149.     # "include", and "hdc" in "exclude", EVMS will examine all IDE disks
  150.     # except hdc.
  151.     #
  152.     # Block device names can be specified using "*", "?", and "[...]"
  153.     # notations.
  154.  
  155.     exclude = [ ]
  156.  
  157.     # "max_open_disks" is the maximum number of disks that EVMS will have
  158.     # open file-descriptors for while the engine is running. The allowable
  159.     # range is 1 to 1024, and the default value is 64.
  160.  
  161. #    max_open_disks = 64
  162. }
  163.  
  164. # Use this section to tell EVMS where to look for devices and which devices to
  165. # include or exclude on a system with sysfs (i.e., 2.5 and later kernels).
  166.  
  167. sysfs_devices {
  168.  
  169.     # "include" are the block devices found in the /sys/block/
  170.     # directory that you want EVMS to use as disks.
  171.     #
  172.     # Block device names can be specified using "*", "?", and "[...]"
  173.     # notations.
  174.  
  175.     include = [ * ]
  176.  
  177.     # "exclude" are the block devices found in the /sys/block/
  178.     # directory that you don't want EVMS to use as disks.  Entries here
  179.     # will override any possible matches from the "include" setting.
  180.     #
  181.     # Block device names can be specified using "*", "?", and "[...]"
  182.     # notations.
  183.  
  184.     exclude = [ ]
  185.  
  186.     # "max_open_disks" is the maximum number of disks that EVMS will have
  187.     # open file-descriptors for while the engine is running. The allowable
  188.     # range is 1 to 1024, and the default value is 64.
  189.  
  190. #    max_open_disks = 64
  191.  
  192.     # "ignore_sysfs" will tell the disk plugin to ignore the sysfs_devices
  193.     # section, and fall back to the legacy_devices section, even if sysfs
  194.     # is available. The default is "no", which should be fine for almost
  195.     # all users.
  196.  
  197. #    ignore_sysfs = no
  198. }
  199.  
  200.  
  201. # Cluster Segment Manager (CSM) section
  202.  
  203. csm {
  204.  
  205.     # Set admin_mode to yes when you wish to force the CSM to discover
  206.     # objects from all cluster containers, allowing you to perform
  207.     # configuration and maintenance.  Setting admin_mode to yes will cause
  208.     # the CSM to ignore container ownership which will allow you to
  209.     # configure storage in a maintenance mode.
  210.     #
  211.     # The default is no.
  212.  
  213. #    admin_mode = yes
  214. }
  215.  
  216.  
  217. # Multipath section
  218. #
  219. # Use this section to tell EVMS which paths in a multipath device should be
  220. # treated only as "backup" paths. These paths will be activated in the kernel
  221. # in a separate priority-group, and will only be used when all of the "normal"
  222. # paths have failed.
  223. #
  224. # Each entry in this section should be the name of a multipath device on your
  225. # system. The value for each entry should be the names of the child objects
  226. # which should be treated as "backup" paths. Child objects which should be
  227. # treated as "active" paths should not be listed here.
  228. #
  229. # Do not use any wildcard characters in this section.
  230.  
  231. multipath {
  232. #    md/md0 = [ hdc ]
  233. #    mp/lvm/vg1-pv1 = [ hdd ]
  234. }
  235.  
  236.  
  237. # LVM2 plugin section.
  238.  
  239. lvm2 {
  240.     # Should the LVM2 plugin prompt you for confirmation when it finds
  241.     # LVM2 metadata on an object, but the object does not pass the
  242.     # necessary size checks? If yes, it will ask you if the object is
  243.     # really an LVM2 PV. If no, it will assume the object is not a PV.
  244.     #
  245.     # If you have used EVMS to create an LVM2 container on top of an
  246.     # MD Software-RAID region, you'll most likely want to set this
  247.     # parameter to no.
  248.     #
  249.     # The default is yes.
  250.  
  251.     device_size_prompt = yes
  252. }
  253.  
  254. # MD plugin section
  255.  
  256. md {
  257.     # MD version 1 superblock feature exists in kernel 2.6.10 or later.
  258.     # Before making the "Version 1 superblock create" option available,
  259.     # the MD plugin checks the version of the running kernel to ensure
  260.     # that MD version 1 superblock will be supported.  However, some
  261.     # Linux distros may choose to port latest MD features into their
  262.     # kernel whose base level is before 2.6.10 (e.g. 2.6.5-xxx).
  263.  
  264.     # If you know for sure that the MD driver can support MD version 1
  265.     # superblock, set can_create_sb_1 to yes.  The default is no.
  266.  
  267. #    can_create_sb_1 = yes
  268. }
  269.  
  270.