文章
服务器与存储管理
作者:Tim Read
2012 年 5 月发布
第 1 部分 — 示例配置概述下一步是创建包含新数据库的区域集群。在稍后一步中,添加区域集群可以访问的 zpool 和逻辑主机名资源。
注意:如果选择使用本文作为执行类似过程的指南,需要密切注意各命令运行的节点。因此,本示例步骤中显示的系统提示包括节点名称和用户名以指示命令必须运行在什么位置以及必须由谁来运行。
区域集群根文件系统的 zonepath 一定不能 放在全局集群的根文件系统中,因此在创建区域集群本身之前先要为此创建一个单独的文件系统,如下所示。在所有新集群节点上重复此命令。
ppyrus1 (root) # zfs create -o mountpoint=/zones rpool/zones ppyrus2 (root) # zfs create -o mountpoint=/zones rpool/zones
创建所有 zonepath 文件系统之后,创建和安装区域集群,如清单 1 所示。清单 1 中的命令只需从一个集群节点运行一次。有关新区域集群的信息将通过集群配置信息库 (CCR) 自动传播到所有其他集群节点。
ppyrus1 (root) # export PATH=$PATH:/usr/cluster/bin
ppyrus1 (root) # clzc configure oracle-zc
oracle-zc: No such zone cluster configured
Use 'create' to begin configuring a new zone cluster.
clzc:oracle-zc> create
clzc:oracle-zc> set zonepath=/zones/oracle-zc
clzc:oracle-zc> set autoboot=true
clzc:oracle-zc> add node
clzc:oracle-zc:node> set physical-host=ppyrus1
clzc:oracle-zc:node> set hostname=vzpyrus3a
clzc:oracle-zc:node> add net
clzc:oracle-zc:node:net> set address=vzpyrus3a/24
clzc:oracle-zc:node:net> set physical=net0
clzc:oracle-zc:node:net> end
clzc:oracle-zc:node> end
clzc:oracle-zc> add node
clzc:oracle-zc:node> set physical-host=ppyrus2
clzc:oracle-zc:node> set hostname=vzpyrus3b
clzc:oracle-zc:node> add net
clzc:oracle-zc:node:net> set address=vzpyrus3b/24
clzc:oracle-zc:node:net> set physical=net0
clzc:oracle-zc:node:net> end
clzc:oracle-zc:node> end
clzc:oracle-zc> set limitpriv=default,proc_priocntl
clzc:oracle-zc> set max-shm-memory=4294967296
clzc:oracle-zc> verify
clzc:oracle-zc> commit
clzc:oracle-zc> exit
ppyrus1 (root) #
ppyrus1 (root) # clzc status
=== Zone Clusters ===
--- Zone Cluster Status ---
Name Node Name Zone HostName Status Zone Status
---- --------- ------------- ------ -----------
oracle-zc ppyrus1 vzpyrus3a Offline Configured
ppyrus2 vzpyrus3b Offline Configured
ppyrus1 (root) # clzc install oracle-zc
Waiting for zone install commands to complete on all the nodes of the zone cluster "oracle-zc"...
ppyrus1 (root) #
清单 1. 安装区域集群
因为安装命令是从伪终端而不是控制台运行的,输出(参见清单 2)被导向控制台窗口。如果在创建区域集群期间发生任何错误,控制台输出是启动诊断过程的好位置。
A ZFS file system has been created for this zone.
Progress being logged to /var/log/zones/zoneadm.20120117T104437Z.oracle-zc.install
Image: Preparing at /zones/oracle-zc/root.
Install Log: /system/volatile/install.4100/install_log
AI Manifest: /tmp/manifest.xml.xSa4.h
SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
Zonename: oracle-zc
Installation: Starting ...
Creating IPS image
Installing packages from:
solaris
origin: http://pkg.oracle.com/solaris/release/
ha-cluster
origin: http://pkg.oracle.com/ha-cluster/release/
DOWNLOAD PKGS FILES XFER (MB)
Completed 249/249 42292/42292 305.0/305.0
PHASE ACTIONS
Install Phase 57897/57897
PHASE ITEMS
Package State Update Phase 249/249
Image State Update Phase 2/2
Installation: Succeeded
Note: Man pages can be obtained by installing pkg:/system/manual
done.
Done: Installation completed in 728.576 seconds.
Next Steps: Boot the zone, then log into the zone console (zlogin -C)
to complete the configuration process.
Log saved in non-global zone as /zones/oracle-zc/root/var/log/zones/zoneadm.20120117T104437Z.oracle-zc.install
清单 2. 控制台输出
软件包安装阶段完成且区域集群引导之后,通过登录到每个区域集群节点(记得使用 zlogin -C zone-cluster-name)并提供菜单系统提示需要的详细信息完成区域集群安装。清单 3 中省略了这些步骤的输出,不过该输出只是重复标准 Oracle Solaris 11 安装期间通常显示的内容。
ppyrus1 (root) # clzc status
=== Zone Clusters ===
--- Zone Cluster Status ---
Name Node Name Zone HostName Status Zone Status
---- --------- ------------- ------ -----------
oracle-zc ppyrus1 vzpyrus3a Offline Installed
ppyrus2 vzpyrus3b Offline Installed
ppyrus1 (root) # clzc boot oracle-zc
Waiting for zone boot commands to complete on all the nodes of the zone cluster "oracle-zc"...
ppyrus1 (root) # zlogin -C oracle-zc
...
清单 3. 检查区域集群的状态
现在区域集群已运行,需要准备数据库软件安装和生产数据库副本恢复过程的下一个阶段。为此,必须执行向区域集群配置添加 zpool 和逻辑主机名称的步骤。
再次从可用存储创建 zpool 并将其挂载点设置为/oradata: ppyrus1 (root) # zpool create -f -m /oradata orapool \
/dev/did/dsk/d1s0 /dev/did/dsk/d2s0 \
/dev/did/dsk/d3s0 /dev/did/dsk/d4s0
向区域集群配置添加 zpool 资源以及两个逻辑主机名资源(一个用于 Oracle Database 服务,一个用于 Oracle Solaris Cluster 地理版),如清单 4 所示。
ppyrus1 (root) # clzc configure oracle-zc clzc:oracle-zc> add dataset clzc:oracle-zc:dataset> set name=orapool clzc:oracle-zc:dataset> end clzc:oracle-zc> add net clzc:oracle-zc:net> set address=vzpyrus1a clzc:oracle-zc:net> end clzc:oracle-zc> add net clzc:oracle-zc:net> set address=vzpyrus1b clzc:oracle-zc:net> end clzc:oracle-zc> verify clzc:oracle-zc> commit clzc:oracle-zc> exit
清单 4. 向区域集群添加资源
创建逻辑主机名资源之前,在每个区域集群节点上更新本地 /etc/hosts 文件以确保它们不依赖于外部名称服务。然后,登录到区域集群,创建控制 Oracle 数据库的新 Oracle 资源组,如清单 5 所示。
vzpyrus3a (root) # cat /etc/hosts ::1 localhost 127.0.0.1 localhost loghost 10.134.108.122 vzpyrus3a # Cluster Node 10.134.108.123 vzpyrus3b # Cluster Node # Virtual IP for Oracle DB on pyrus 10.134.108.111 vzpyrus1a oracle-pyrus-lh # Virtual IP for Geo Edition 10.134.108.109 vzgyruss2a gyruss # Virtual IP for Geo Edition in zone cluster 10.134.108.112 vzpyrus1b oracle-zc vzpyrus3a (root) # vzpyrus3a (root) # export PATH=$PATH:/usr/cluster/bin vzpyrus3a (root) # clrg create -n vzpyrus3a,vzpyrus3b oracle-rg vzpyrus3a (root) # clrslh create -g oracle-rg -h vzpyrus1a oracle-lh-rs vzpyrus3a (root) # clrt register SUNW.HAStoragePlus vzpyrus3a (root) # clrs create -g oracle-rg -t SUNW.HAStoragePlus \
-p zpools=orapool oracle-hasp-rs vzpyrus3a (root) # clrg online -emM oracle-rg (C348385) WARNING: Cannot enable monitoring on resource oracle-lh-rs because it already has monitoring enabled. To force the monitor to restart, disable monitoring using 'clresource unmonitor oracle-lh-rs' and re-enable monitoring using 'clresource monitor oracle-lh-rs'. (C348385) WARNING: Cannot enable monitoring on resource oracle-hasp-rs because it already has monitoring enabled. To force the monitor to restart, disable monitoring using 'clresource unmonitor oracle-hasp-rs' and re-enable monitoring using 'clresource monitor oracle-hasp-rs'. vzpyrus3a (root) # vzpyrus3a (root) # ping vzpyrus1a vzpyrus1a is alive vzpyrus3a (root) # vzpyrus3a (root) # df -h /oradata Filesystem Size Used Available Capacity Mounted on orapool 73G 27K 73G 1% /oradata
清单 5. 检查 /etc/hosts 并创建资源组
| 修订版 1.0,2012 年 5 月 1 日 |