vmware 不显示进去ips 一直显示sensor login

下次自動登錄
現在的位置:
& 綜合 & 正文
VMware運行IPS v5 中文教程(全步驟詳解)
作者: 鍋巴粥
參考: Cisco_IPS_in_VMWare readme v1.0 by einval – 16-Jul-2007本文主要參考了readme以及我個人的一些見解,以下將詳細介紹如安裝步驟
一.準備工作
1.Vmware workstation 版本:5.5 (我使用的是for linux版5.5.3),宿主主機為linux.
2.cisoc IPS鏡像 einval使用的是IPS-K9-cd-1.1-a-5.1-4.iso
(我使用的是IPS-K9-cd-1.1-a-5.1-6-E1.iso,論壇可以搜索到下載)
3.修改過的VMWare BIOS 文件CISCO_IDS.BIOS.ROM(在論壇帖子附件可以下載到)二.安裝步驟
默認vmware安裝完成.運行vmware點擊創建一個新的虛擬主機
(18.07 KB)
(35.77 KB)
(41.37 KB)
(29.11 KB)
步驟5:(名字自定義)
(22.69 KB)
(33.23 KB)
(39.43 KB)
(22.82 KB)
(34.96 KB)
(20.67 KB)
(38.63 KB)
點擊NEXT---&Finish
Vm界面即可出現上面所建的虛擬機,名為IPS_5.鼠標右點擊其標籤,選擇settings(設置)
(50.54 KB)
依次選中:Floppy1 , USB Controller ,Sound Adapter標籤,依次刪除(點擊Remove)
(43.99 KB)
a)點擊Add(增加),以此添加設備:Hard Disk
(33.38 KB)
點擊Next至:
(36.75 KB)
如圖,點擊Next至:
(22.45 KB)
如圖,點擊Next至:
(40.48 KB)
如圖,點擊Next至:
(28.22 KB)
如圖,點擊Finish,即完成添加Hard Disk
b)點擊Add(添加)n添加兩個設備:Ethernet Adapter
(33.49 KB)
如圖,點擊Next至:
(32.92 KB)
點擊Finish,即可完成添加一個網卡.(注:網卡連接類型任意,這裡選擇的是Bridge)重複b)中的兩個圖步驟再添加另一個網卡
c)選中CD-ROM標籤,點擊右側USE ISO image, 選中IPS鏡像文件所在目錄.點擊確定,完成設置.
(53.31 KB)
步驟17:修改Vmware配置文件
定位到~/vmware/&vm_name&,編輯.vmx後綴文件.在其中添加行 :
bios440.filename = "&Vmware_bios目錄&/CISCO_IDS.BIOS.ROM"
ethernet0.virtualDev = "e1000" ethernet1.virtualDev = "e1000" ethernet2.virtualDev = "e1000"
編輯完後保存.
步驟18:運行Vmware, power on配置好的虛擬機(在按照以上說明配置正確,將可看到以下顯示)
(33.55 KB)
之後自動完成安裝,虛擬機將自動重新啟動,第二次自動啟動後將顯示(如圖):
(51.46 KB)
保持高亮停留在Cisco IPS上,按字母e進入編輯模式.
之後保持高亮停留在kernel(如圖):
(34.69 KB)
請再次按字母e,進入其編輯模式(如圖)
(31.33 KB)
之後移動光標(上下左右鍵盤),定位到init=loadrc,修改為init=1(如圖)
任意鍵退出到上一步,然後按b鍵重新啟動.重新啟動後,將顯示(如圖)
(43.01 KB)
後面將是使用vi工具來編輯配置文件.
步驟20: a)依次運行以下命令:
-sh-2.05b#& /loadrc
&.............&-sh-2.05b#& /etc/init.d/rc.init
&.............&-sh-2.05b#& touch /usr/share/zoneinfo/cidsZoneInfo
&正確輸入此步將無顯示&
b)運行命令
-sh-2.05b#& cat /proc/cpuinfo
定位到 cpu Mhz :
(CPU各異,根據你的顯示)
(38.36 KB)
例如上圖:選取 並缺其整部分:2000,記錄待用
c)依次運行以下命令:
-sh-2.05b#&
cd /etc/init.d-sh-2.05b#& cp ids_functions ids_functions.orig-sh-2.05b#& vi ids_functions
#使用vi編輯ids_functions配置文件
進入vi模式
同時按下 Shift+; 鍵在下方冒號後輸入
/isCPU 845
(搜索字符串"is CPU 845")或者(移動上下左右光標定位到第248行,顯示所在行同時按Ctrl+g)大概內容:
elif [[ 'isCPU 845' -eq $TRUE && ...
MODEL=$IDS4215
按insert鍵,移動光標定位到845處.將上面所記錄下的CPU Mhz值替換845,例如上面記錄的2000繼續向下移動光標,定位到:
DEFAULT_MGT_OS="fe0_0" DEFAULT_MGT_CIDS="FastEthernet0/0"
DEFAULT_MGT_OS="ma0_0" DEFAULT_MGT_CIDS="Management0/0"
確定無輸入錯誤,按下Esc鍵,退出Insert模式.同時按下 Shift+; 鍵,在下方冒號後輸入wq,即保存退出,
d)依次運行以下命令:
-sh-2.05b#& cd /usr/cids/idsRoot/etc -sh-2.05b#& cp interface.conf interface.conf.orig -sh-2.05b#& vi interface.conf
#使用vi編輯interface.conf配置文件
進入vi模式
按下insert鍵,向下移動光標,定位到:
[models/IDS-4215/slots/1] # lower slot pci-bus=0
#改為 1 pci-device=17
[models/IDS-4215/slots/2 # upper slot pci-bus=0
# 改為2pci-device=19
光標繼續向下定位到
[models/IDS-4215/interfaces/1]# built-in 10/100 TX mgmt interface, Intel 82559ER # was eth1 (int1) in 4.x # rightmost connector on front panel # labeled "Ethernet 1" on panelname-template=FastEthernet0/0
# 改為 Management0/0 pci-bus=0 pci-device= 14
# 改為17pci-function=0 vendor-id=0x8086 device-id=0x1209
# 改為00f type=fe
# 改為 ge mgmt-capable=yesdefault-admin-state=enabled
#添加此行on-backplane=yes
光標繼續向下定位到[models/IDS-4215/interfaces/2] # built-in 10/100 TX sensing interface, Intel 82559ER # was eth0 (int0) in 4.x # leftmost connector labeled "Ethernet 0" name-template=FastEthernet0/1
# 改為 GigabitEthernet0/1 pci-bus=0 pci-device= 13
# 改為 18 pci-function=0 vendor-id=0x8086 device-id=0x1209
# change to 00f type=fe
# change to ge sensing-capable=yes tcp-reset-capable=yesdefault-admin-state=enabled
下面需要手添加interfaces/3(按照以下內容自己手動敲進去,不願意敲也可以複製interface/2的參數,然後在修改為以下內容)
[models/IDS-4215/interfaces/3]name-template=GigabitEthernet0/2pci-bus=0pci-device=19pci-function=0vendor-id=0x8086device-id=00ftype=gesensing-capable=yestcp-reset-capable=yesdefault-admin-state=enabled
繼續移動光標定位到文件本身的interface/3
[models/IDS-4215/interfaces/3]
#將其修改為4# rightmost interface on optional 1 x 4-FE card:# on secondary bus of pci-pci bridge on the interface card# was eth5 (int5) in 4.xname-template=FastEthernet%s/0pci-device=7pci-function=0vendor-id=0x8086device-id=0x1229type=fesensing-capable=yestcp-reset-capable=yes
繼續移動光標定位到文件本身的interface/4
[models/IDS-4215/interfaces/4]
#將其修改為5# second-from-right interface on optional 1 x 4-FE card:# on secondary bus of pci-pci bridge on the interface card# was eth4 (int4) in 4.xname-template=FastEthernet%s/1pci-device=6pci-function=0vendor-id=0x8086device-id=0x1229type=fesensing-capable=yestcp-reset-capable=yes
繼續移動光標定位到文件本身的interface/5
[models/IDS-4215/interfaces/5]
#將其修改為6# third-from-right interface on optional 1 x 4-FE card:# on secondary bus of pci-pci bridge on the interface card# was eth3 (int3) in 4.xname-template=FastEthernet%s/2pci-device=5pci-function=0vendor-id=0x8086device-id=0x1229type=fesensing-capable=yestcp-reset-capable=yes
繼續移動光標定位到文件本身的interface/6
[models/IDS-4215/interfaces/6]
#將其修改為7# leftmost interface on optional 1 x 4-FE card# was eth2 (int2) in 4.x# on secondary bus of pci-pci bridge on the interface card# PCI-PCI bridge device type is . name-template=FastEthernet%s/3pci-device=4pci-function=0vendor-id=0x8086device-id=0x1229type=fesensing-capable=yestcp-reset-capable=yes
編譯完畢,保存退出(方法同上,已述)
e)運行以下命令
-sh-2.05b#& cd /usr/cids/idsRoot/bin/ -sh-2.05b#& mv smbios_bios_info smbios_bios_info.orig -sh-2.05b#& vi smbios_bios_info
#編輯空文件
將以下內容寫入smbios_bios_info文件:
#!/bin/sh echo echo "Platform: IDS-4215" exit 0
-sh-2.05b#& chmod +x smbios_bios_info-sh-2.05b#& ./smbios_bios_info
&顯示:Platform: IDS-4215&
到此所有配置結束,之後重新啟動
-sh-2.05b#& reboot
在grub選擇進入Cisco IPS
(41.23 KB)
等待.........虛擬機將會停止在此處,不在繼續.可以點擊VMware界面的Reset來再次重新啟動.重新啟動後,假如你的配置都正確,將會看到以下顯示:
(39.71 KB)
然後使用帳戶/密碼:cisco 登錄之後將會出現
(current)UNIX password:
同樣輸入cisco然後會出現
new password:
需要重新配置安全密碼,注意密碼長度配置好以後將進入到CLI界面運行命令:
sensor#show confsensor#copy current-config backup-configsensor#reset
下此重新啟動以後,你的IPS將可用
(43.63 KB)
附:如果你下此運行IPS的時候出現這樣的提示:
可以運行命令:
-sh-2.05b#& cat /proc/cpuinfo
#重新查看cpu Mhz
然後重新修改ids_functions中相關內容:
-sh-2.05b#&cd /etc/init.d
-sh-2.05b#& vi ids_functions
至此全文結束
由於本人水平有限,如果文中有錯誤地方,請在論壇指出,我將再作改正.謝謝大家.
【上篇】【下篇】51CTO旗下网站
入侵预防系统(IPS)设备在虚拟机环境下仍然有用吗?
入侵预防系统(IPS)厂商们一直觉得重新改造IPS设备、用于虚拟机环境并非易事。而现在,迈克菲和Sourcefire这两家厂商声称已克服了一些障碍,至少在VMware的虚拟机方面是这样。
作者:布加迪 译来源:51CTO.com| 09:21
【51CTO 4月14日外电头条】厂商们一直觉得重新改造IPS设备、用于虚拟机环境并非易事。而现在,迈克菲和Sourcefire这两家厂商声称已克服了一些障碍,至少在VMware的虚拟机方面是这样。
迈克菲近日声称,网络安全平台版本6(之前IntruShield IPS的升级版)添加了一种方法,通过使用在虚拟机管理程序上运行的基于代理的软件,以检查VMware虚拟机管理程序后面的内部网络流量。为此,迈克菲借助一项技术合作计划,以OEM(贴牌)方式获得了Reflex Systems公司的代理技术。
迈克菲网络安全产品营销的副总裁Greg Brown表示,迈克菲IPS代理软件可透视流量,并通过一条安全通道传送到迈克菲IPS,在硬件设备上执行评估工作。他补充说:&以前我们看不到虚拟机上的情况。&
Brown表示,在硬件设备上检查流量被认为可以防止给虚拟机本身带来负担,不然就得将处理器资源专门用于IPS。迈克菲网络安全平台目前只能以这种方式支持基于VMware的虚拟机,但迈克菲正在为微软和思杰的虚拟机环境也考虑采用同样的IPS方法。
迈克菲的方法不但只用于企业,还可以用于云服务提供商,以提供IPS安全服务。而这就是为什么云服务提供商Savvis在其数据中心的VMware虚拟机上试用迈克菲基于代理的IPS方法。
Savvis的安全和虚拟化技术副总裁Ken Owens说:&我们对于传送的流量有所限制。&面向VMware虚拟机管理程序的迈克菲代理软件基于Reflex的技术,先初步检查流量,然后决定哪些流量发送到迈克菲IPS设备,接受进一步的检查。
Owens承认,结合多种技术的厂商&总是有一种顾虑&,因为这会带来诸多问题,比如长远来看多种技术协同运行状况如何,或者某一项技术会不会被收购。但正在Savvis接受测试的这个方法将让这家云服务提供商可以使用迈克菲IPS,为传统物理服务器和虚拟机服务器都能检查流量。
Owens补充说,现在还没有&跨平台支持功能&,以支持微软HyperV和思杰Xen虚拟机;这是个缺点,因为Savvis在考虑添加虚拟机平台。
Sourcefire公司也声称取得了进展,推出了面向VMware环境的一种入侵预防方法。
Sourcefire的高级产品经理Richard Park表示,现在Sourcefire IPS已与VMware的两款产品: vShield App和vShield Edge集成起来。
VMware vShield App是VMware的一款可感知应用程序的防火墙,可以安装到每个VMware vSphere主机上,以控制和监测虚拟机之间的流量。VMware vShield Edge则是一款虚拟设备,提供了防火墙功能、虚拟专用网(VPN)、Web负载均衡及其他功能,目的在于让用户不需要虚拟局域网。
据Park声称,VMware产品与Sourcefire IPS集成意味着,通过支持vShield应用编程接口(API),这款IPS能够收到关于VMware环境中政策违反情况的信息,并采取相应措施,比如更新vShield App防火墙。
Sourcefire IPS现在能够检查VShield方面的政策违反情况,比如使用未授权应用程序或非标准端口,或者未经允许,擅自访问某个关键主机。Sourcefire IPS能够动态配置vShield App或vShield Edge,力求限制违反政策的活动。为了提供自动化功能,并尽量减少管理员的干预,Sourcefire IPS还能做到在一段指定的时间后,自动取消限制。
VMware的产品管理主管Dean Coza表示,vShield系列产品允许使用&位于每个主机上的分布式防火墙&,能够针对虚拟机建立&隔离区&,不管通过VMware的VMotion功能把虚拟机迁移到何处,而使用物理防火墙设备将极难做到这点。
与vShield API集成意味着,像Sourcefire的IPS这类产品可以直观地显示出现的情况,并与VShield控制技术进行互动。目的在于允许使用客户的IPS,以便同时支持物理服务器和VMware虚拟机环境。他表示,VMware与Sourcefire的竞争对手惠普TippingPoint在携手开展一个类似的IPS项目。
【51CTO.com独家译稿,非经授权谢绝转载!合作媒体转载请注明原文出处及出处!】
【编辑推荐】
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
热点头条热点热点头条
24H热文一周话题本月最赞
讲师:1825人学习过
讲师:13308人学习过
讲师:2723人学习过
精选博文论坛热帖下载排行
本书非常详细而全面地介绍了C#程序设计语言。本书不是“5分钟学习C#”式的手册,也不是那种教您“照猫画虎”地创建一些与您的实际工作需要...
订阅51CTO邮刊Access denied | gns3.com used Cloudflare to restrict access
Please enable cookies.
What happened?
The owner of this website (gns3.com) has banned your access based on your browser's signature (b276e44-ua98).扫一扫体验手机阅读
vmware ips5虚拟机增加sensor网卡
<span type="1" blog_id="958338" userid='
分享到朋友圈
关注作者,不错过每一篇精彩使用 VMware Server 在 Oracle Enterprise Linux 上安...
我的图书馆
使用 VMware Server 在 Oracle Enterprise Linux 上安...
DBA:Linux
使用 VMware Server 在 Oracle Enterprise Linux 上安装 Oracle RAC 10g
作者:Vincent Chan
使用虚拟机在 Oracle Enterprise Linux 上免费试用 Oracle 真正应用集群 10g 第 2 版
2007 年 1 月发表
于 10 月份 Oracle OpenWorld 2006 上推介的 Oracle 坚不可摧的 Linux 旨在为 Red Hat Linux 提供企业级支持服务,更快地修复错误,以及显著降低支持价格。此外,Oracle 自己的 Enterprise Linux(基于包含额外错误修补的 Red Hat Advanced Server 第 4 版 (Update 4))提供免费。
因此,现在可以通过 VMware Server(VMware 提供的一个免费虚拟环境)在家用电脑上免费使用运行在 Red Hat Advanced Server 上的 Oracle 真正应用集群 (RAC) 10g。
VMware Server 允许您在一台物理计算机上运行多个操作系统。每个虚拟机都是一个独立的操作环境,并带有一组自己的虚拟组件,如磁盘、处理器和内存。虚拟技术在计算环境中十分有用,它允许您在同一物理主机上独立地开发和测试软件以防止数据或软件损坏。VMware 软件广泛地用于服务器整合,以降低总拥有成本并加快应用程序开发和测试周期。
在本指南中,您将了解如何安装和配置两个在 Enterprise Linux 和 VMware Server 上运行 Oracle RAC 10g 第 2 版的节点。注意,本指南仅用于教学/评估目的;Oracle 及其他供应商不会为本配置提供支持。本指南分为以下几个部分:
1. 硬件要求和概述
在本指南中,您将安装 32 位 Linux 客户操作系统。只有在主机上运行的以下 64 位处理器支持 64 位客户操作系统:
AMD Athlon 64 修订版 D 或更高版本
AMD Opteron 修订版 E 或更高版本
AMD Turion 64 修订版 E 或更高版本
AMD Sempron 64-bit-capable 修订版 D 或更新的 Intel EM64T VT-capable 处理器
如果您决定安装 64 位客户操作系统,请确定上面列出了您的处理器。您还需要确保在 BIOS 中启用了虚拟技术 (VT)。一些主流制造商在默认情况下禁用了该技术。提供了有关处理器兼容性的其他信息。要验证您的处理器是否受支持,请从 VMware 网站处理器兼容性检查工具。
为每个虚拟机至少分配 700MB 内存;为所有虚拟机预留至少 30GB 磁盘空间。
主机操作系统环境概况:
Windows XP Professional Service Pack 2(32 位)
Intel Pentium 4 550, 3.4MHz, HT
2 GB DDR2 SDRAM, 533 MHz
250 GB, Ultra ATA/133, 7200 RPM
Intel Pro/1000 MT
客户操作系统环境概况:
Oracle Enterprise Linux 4(32 位)
Oracle Enterprise Linux 4(32 位)
虚拟磁盘布局概况:
主机操作系统上的虚拟磁盘
客户操作系统上的虚拟磁盘
虚拟设备节点
d:\vm\rac\localdisk.vmdk
/dev/sda1/dev/sda2/dev/sda3
&#8220;/&#8221;挂载点交换空间 Oracle 二进制文件
d:\vm\rac\sharedstorage\ocfs2disk.vmdk
OCFS2 磁盘
d:\vm\rac\sharedstorage\asmdisk1.vmdk
ASM 磁盘组 1
d:\vm\rac\sharedstorage\asmdisk2.vmdk
ASM 磁盘组 1
d:\vm\rac\sharedstorage\asmdisk3.vmdk
ASM 闪回恢复区
(要配置共享存储,客户 OS 不能与共享存储共享同一个 SCSI 总线。指定客户 OS 使用 SCSI0,共享磁盘使用 SCSI1。)
RAC 数据库环境概况:
ASM 实例名
RAC 实例名
数据库文件存储
OCR 与表决磁盘 (Voting Disk)
您将在每个节点上安装 Oracle 主目录供冗余使用。每个节点上的 ASM 和 Oracle RAC 实例共享同一个 Oracle 主目录。
2. 配置第一个虚拟机
要创建和配置第一个虚拟机,您需要添加虚拟硬件设备,如磁盘和处理器。在继续执行安装之前,请创建以下 windows 文件夹以存放虚拟机和共享存储。
D:\&mkdir vm\rac\rac1
D:\&mkdir vm\rac\rac2
D:\&mkdir vm\rac\sharedstorage
双击桌面上的 VMware Server 图标以启动应用程序:
按 CTRL-N 创建一个新的虚拟机。
新建虚拟机向导:单击 Next。
选择适当的配置:
虚拟机配置:选择 Custom。
选择客户操作系统:
客户操作系统:选择 Linux。
版本:选择 Red Hat Enterprise Linux 4。
命名虚拟机:
虚拟机名称:输入&#8220;rac1&#8221;。
位置:输入&#8220;d:\vm\rac\rac1&#8221;。
设置访问权限:
访问权限:选择 Make this virtual machine private。
启动/关闭选项:
虚拟机帐户:选择 User that powers on the virtual machine。
处理器配置:
处理器:选择一个处理器。
虚拟机内存:
内存:选择 700MB。
网络类型:
网络连接:选择 Use bridged networking。
选择 I/O 适配器类型:
I/O 适配器类型:选择 LSI Logic。
选择磁盘:
磁盘:选择 Create a new virtual disk。
选择磁盘类型:
虚拟磁盘类型:选择 SCSI (Recommended)。
指定磁盘容量:
磁盘容量:输入&#8220;20GB&#8221;。
取消选择 Allocate all disk space now。为了节省空间,您现在不必分配所有磁盘空间。
指定磁盘文件:
磁盘文件:输入&#8220;localdisk.vmdk&#8221;。
单击 Finish。
重复步骤 16-24 以创建四个虚拟 SCSI 硬盘 — ocfs2disk.vmdk (512MB)、asmdisk1.vmdk (3GB)、asmdisk2.vmdk (3GB) 和 asmdisk3.vmdk (2GB)。
VMware Server 控制台:单击 Edit virtual machine settings。
虚拟机设置:单击 Add。
新增硬件向导:单击 Next。
硬件类型:
硬件类型:选择 Hard Disk。
选择磁盘:
磁盘:选择 Create a new virtual disk。
选择磁盘类型:
虚拟磁盘类型:选择 SCSI (Recommended)。
指定磁盘容量:
磁盘容量:输入&#GB&#8221;。
选择 Allocate all disk space now。如果您希望节省空间,则不必分配所有磁盘空间。出于性能方面的考虑,您需要为每个虚拟共享磁盘预先分配所有磁盘空间。特别是在 Oracle 数据库创建期间或者当数据库的 DML 活动较频繁时,如果共享磁盘的大小增长快速,虚拟机可能会间歇挂起一段较短的时间甚至崩溃(这种情况很少见)。
指定磁盘文件:
磁盘文件:输入&#8220;d:\vm\rac\sharedstorage\ocfs2disk.vmdk&#8221;。
单击 Advanced。
新增硬件向导:
虚拟设备节点:选择 SCSI 1:0。
模式:选择 Independent,针对所有共享磁盘选择 Persistent。
单击 Finish。
最后,额外添加一个虚拟网卡以用于专用互联,并移除软盘驱动器(如果有)。
VMware Server 控制台:单击 Edit virtual machine settings。
虚拟机设置:单击 Add。
新增硬件向导:单击 Next。
硬件类型:
硬件类型:以太网适配器。
网络类型:
主机模式:与主机共享的专用网络
单击 Finish。
虚拟机设置:
选择 Floppy 并单击 Remove。
虚拟机设置:单击 OK。
修改虚拟机配置文件。还需要设置其他参数以启用两个虚拟 RAC 节点之间的磁盘共享。打开配置文件 d:\vm\rac\rac1\Red Hat Enterprise Linux 4.vmx,并添加下面列出的粗体参数。
config.version = "8"
virtualHW.version = "4"
scsi0.present = "TRUE"
scsi0.virtualDev = "lsilogic"
memsize = "700"
scsi0:0.present = "TRUE"
scsi0:0.fileName = "localdisk.vmdk"
ide1:0.present = "TRUE"
ide1:0.fileName = "auto detect"
ide1:0.deviceType = "cdrom-raw"
floppy0.fileName = "A:"
Ethernet0.present = "TRUE"
displayName = "rac1"
guestOS = "rhel4"
priority.grabbed = "normal"
priority.ungrabbed = "normal"
disk.locking = "FALSE"
diskLib.dataCacheMaxSize = "0"
scsi1.sharedBus = "virtual"
scsi1.present = "TRUE"
scsi1:0.present = "TRUE"
scsi1:0.fileName = "D:\vm\rac\sharedstorage\ocfs2disk.vmdk"
scsi1:0.mode = "independent-persistent"
scsi1:0.deviceType = "disk"
scsi1:1.present = "TRUE"
scsi1:1.fileName = "D:\vm\rac\sharedstorage\asmdisk1.vmdk"
scsi1:1.mode = "independent-persistent"
scsi1:1.deviceType = "disk"
scsi1:2.present = "TRUE"
scsi1:2.fileName = "D:\vm\rac\sharedstorage\asmdisk2.vmdk"
scsi1:2.mode = "independent-persistent"
scsi1:2.deviceType = "disk"
scsi1:3.present = "TRUE"
scsi1:3.fileName = "D:\vm\rac\sharedstorage\asmdisk3.vmdk"
scsi1:3.mode = "independent-persistent"
scsi1:3.deviceType = "disk"
scsi1.virtualDev = "lsilogic"
ide1:0.autodetect = "TRUE"
floppy0.present = "FALSE"
Ethernet1.present = "TRUE"
Ethernet1.connectionType = "hostonly"
3. 在第一个虚拟机上安装并配置 Enterprise Linux
并解压缩文件:
Enterprise-R4-U4-i386-disc1.iso
Enterprise-R4-U4-i386-disc2.iso
Enterprise-R4-U4-i386-disc3.iso
Enterprise-R4-U4-i386-disc4.iso
在 VMware Server 控制台上,双击右面板上的 CD-ROM 设备,然后选择第 1 张磁盘的 ISO 镜像 Enterprise-R4-U4-i386-disc1.iso。
VMware Server 控制台:
单击 Start this virtual machine。
按 Enter 键以图形模式安装。
跳过介质测试并启动安装。
欢迎使用 Enterprise Linux:单击 Next。
语言选择:&选择语言首选项&。
键盘配置:&选择键盘首选项&。
安装类型:自定义。
磁盘分区设置:使用 Disk Druid 进行手动分区。
警告:单击 Yes 将初始化每个设备 — sda、sdb、sdc、sdd 和 sde。
磁盘设置:通过双击挂载点(/ 和 /u01)和交换空间的 /dev/sda 可用空间来分配 sda 驱动器上的磁盘空间。您稍后将为 OCFS2 和 ASM 配置其余驱动器。
添加分区:
挂载点: /
文件系统类型:ext3
开始柱面: 1
结束柱面: 910
文件系统类型:Swap
开始柱面: 911
结束柱面: 1170
挂载点:/u01
文件系统类型:ext3
开始柱面: 1171
结束柱面: 2610
引导加载程序配置:仅选择默认的 /dev/sda1,其余选项均保留未选中状态。
网络配置:
选择并编辑 eth0
取消选择 Configure Using DHCP。
选择 Activate on boot。
IP 地址:输入&#.2.131&#8221;。
网络掩码:输入&#.255.0&#8221;。
选择并编辑 eth1
取消选择 Configure Using DHCP。
选择 Activate on boot。
IP 地址:输入&#.10.31&#8221;。
网络掩码:输入&#.255.0&#8221;。
选择 manually 并输入&#8220;rac1.mycorpdomain.com&#8221;。
网关:输入&#.2.1&#8221;。
首选 DNS:&可选&
备用 DNS:&可选&
防火墙配置:
选择 No Firewall。如果启用了防火墙,当您稍后在设置期间尝试挂载 ocfs2 文件系统时,可能会遇到错误&#8220;mount.ocfs2:Transport endpoint is not connected while mounting&#8221;。
启用 SELinux 吗?:Active。
警告 — 无防火墙:单击 Proceed。
其他语言支持:&选择所需的语言&。
时区选择:&选择您的时区&
设置 Root 口令:&输入您的 root 口令&
程序包组选择:
选择 X Window System。
选择 GNOME Desktop Environment。
选择 Editors。
单击 Details 并选择您偏好的文本编辑器。
选择 Graphical Internet。
选择 Text-based Internet。
选择 Office/Productivity。
选择 Sound and Video。
选择 Graphics。
选择 Server Configuration Tools。
选择 FTP Server。
选择 Legacy Network Server。
单击 Details。
选择 rsh-server。
选择 telnet-server。
选择 Development Tools。
选择 Legacy Software Development。
选择 Administration Tools。
选择 System Tools。
单击 Details。除了默认选中的程序包外,再选择以下程序包。
选择 ocfs-2-2.6.9-42.0.0.0.1EL(UP 内核驱动程序),或者选择 ocfs-2-2.6.9-42.0.0.0.1ELsmp(SMP 内核驱动程序)。
选择 ocfs2-tools。
选择 ocfs2console。
选择 oracle oracleasm-2.6.9-42.0.0.0.1EL(UP 内核驱动程序),或者选择 oracleasm-2.6.9-42.0.0.0.1ELsmp(SMP 内核驱动程序)。
选择 sysstat。
选择 Printing Support。
准备安装:单击 Next。
所需的安装介质:单击 Continue。
更改 CD-ROM:在 VMware Server 控制台上,按 CTRL-D 显示 Virtual Machine Settings。单击 CD-ROM 设备并选择第 2 张磁盘的 ISO 镜像 Enterprise-R4-U4-i386-disc2.iso,然后是第 3 张磁盘的 ISO 镜像 Enterprise-R4-U4-i386-disc3.iso。
安装结束时:
在 VMware Server 控制台上,按 CTRL-D 显示 Virtual Machine Settings。单击 CD-ROM 设备并选择 Use physical drive。
单击 Reboot。
欢迎页面:单击 Next。
许可协议:选择 Yes, I agree to the License Agreement。
日期和时间:设置日期和时间。
显示:&选择所需的分辨率&。
系统用户:保留项目为空并单击 Next。
其他 CD:单击 Next。
完成设置:单击 Next。
恭喜,您已经在 VMware Server 上安装了 Enterprise Linux!
安装 VMware 工具。VMware 工具要求同步主机和客户机的时间。
在 VMware 控制台上,以 root 用户身份登录。
单击 VM,然后选择 Install VMware Tools。
rac1 — 虚拟机:单击 Install。
双击桌面上的 VMware Tools 图标。
cdrom:双击 VMwareTools-1.0.1-2.rpm。
完成系统准备:单击 Continue。
打开一个终端并执行 vmware-config-tools.pl。
输入所需的显示大小。
同步客户 OS 与主机 OS 的时间。在安装 Oracle 集群件和 Oracle 数据库软件时,Oracle 安装程序将首先在本地节点上安装软件,然后再将软件远程复制到远程节点。如果两个 RAC 节点的日期和时间未同步,您可能会收到类似于以下内容的错误。
"/bin/tar: ./inventory/Components21/oracle.ordim.server/10.2.0.1.0: time
06:24:04 is 25 s in the future"
要确保成功安装 Oracle RAC,虚拟机上的时间必须与主机上的时间同步。执行下面的步骤,以 root 用户身份同步时间。
执行&#8220;vmware-toolbox&#8221;以显示 VMware Tools Properties 窗口。在 Options 选项卡下,选择 Time synchronization between the virtual machine and the host operating system。您应该发现 tools.syncTime = "TRUE" 参数已经追加到虚拟机配置文件 d:\vm\rac\rac1\Red Hat Enterprise Linux 4.vmx 中。
编辑 /boot/grub/grub.conf,并将选项&#8220;clock=pit nosmp noapic nolapic&#8221;添加到读取内核 /boot/ 的那一行。您已经将选项添加到两个内核,现在只需对特定内核进行更改。
#boot=/dev/sda
splashimage=(hd0,0)/boot/grub/splash.xpm.gz
hiddenmenu
title Enterprise (2.6.9-42.0.0.0.1.ELsmp)
root (hd0,0)
kernel /boot/vmlinuz-2.6.9-42.0.0.0.1.ELsmp ro
root=LABEL=/ rhgb quiet clock=pit nosmp noapic nolapic
initrd /boot/initrd-2.6.9-42.0.0.0.1.ELsmp.img
title Enterprise-up (2.6.9-42.0.0.0.1.EL)
root (hd0,0)
kernel /boot/vmlinuz-2.6.9-42.0.0.0.1.EL ro root=LABEL=/
rhgb quiet clock=pit nosmp noapic nolapic
initrd /boot/initrd-2.6.9-42.0.0.0.1.EL.img
重新引导 rac1。
创建 oracle 用户。 以 root 用户身份执行
# groupadd oinstall
# groupadd dba
# mkdir -p /export/home/oracle /ocfs
# useradd -d /export/home/oracle -g oinstall -G dba -s /bin/ksh oracle
# chown oracle:dba /export/home/oracle /u01
# passwd oracle
New Password:
Re-enter new Password:
passwd: password successfully changed for oracle
创建 oracle 用户环境文件。
/export/home/oracle/.profile
export PS1="`/bin/hostname -s`-& "
export EDITOR=vi
export ORACLE_SID=devdb1
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export ORA_CRS_HOME=$ORACLE_BASE/product/10.2.0/crs_1
export LD_LIBRARY_PATH=$ORACLE_HOME/lib
export PATH=$ORACLE_HOME/bin:$ORA_CRS_HOME/bin:/bin:
/usr/bin:/usr/sbin:/usr/local/bin:/usr/X11R6/bin
创建文件系统目录结构。以 oracle 用户身份执行
rac1-& mkdir p $ORACLE_BASE/admin
rac1-& mkdir p $ORACLE_HOME
rac1-& mkdir p $ORA_CRS_HOME
rac1-& mkdir -p /u01/oradata/devdb
提高 Oracle 用户的 shell 限制。使用文本编辑器将下面列出的行添加到 /etc/security/limits.conf、/etc/pam.d/login 和 /etc/profile。其他信息可以从中获得。
/etc/security/limits.conf
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536
/etc/pam.d/login
session required /lib/security/pam_limits.so
/etc/profile
if [ $USER = "oracle" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
ulimit -u 16384 -n 65536
安装 Enterprise Linux 软件程序包。安装 Oracle 软件需要以下附加程序包。如果您已经安装了 64 位版本的 Enterprise Linux,则安装程序应该已安装了这些程序包。
libaio-0.3.105-2.i386.rpm
openmotif21-2.1.30-11.RHEL4.6.i386.rpm
从 ISO CD 解压缩这些程序包,并以 root 用户身份执行下面的命令。
libaio-0.3.105-2.i386.rpm
openmotif21-2.1.30-11.RHEL4.6.i386.rpm
# rpm -Uvh *.rpm
warning: libaio-0.3.105-2.i386.rpm: V3 DSA signature: NOKEY, key ID b38a8516
Preparing...
########################################### [100%]
1:openmotif21
########################################### [ 50%]
########################################### [100%]
配置内核参数。使用文本编辑器将下面列出的行添加到 /etc/sysctl.conf。要使更改立即生效,请执行 /sbin/sysctl &#8211;p。
/etc/sysctl.conf
kernel.shmall
kernel.shmmax
kernel.shmmni
kernel.sem
fs.file-max
net.ipv4.ip_local_port_range =
net.core.rmem_default
net.core.rmem_max
net.core.wmem_default
net.core.wmem_max
修改 /etc/hosts 文件。
# more /etc/hosts
192.168.2.131
rac1.mycorpdomain.com
192.168.2.31
rac1-vip.mycorpdomain.com
10.10.10.31
rac1-priv.mycorpdomain.com
192.168.2.132
rac2.mycorpdomain.com
192.168.2.32
rac2-vip.mycorpdomain.com
10.10.10.32
rac2-priv.mycorpdomain.com
配置 hangcheck timer 内核模块。hangcheck timer 内核模块可监控系统的运行情况,并重新启动出现故障的 RAC 节点。它使用两个参数,即 hangcheck_tick(定义系统检查频率)和 hangcheck_margin(定义在重置 RAC 节点前的最大挂起延时)来确定节点是否出现故障。
在 /etc/modprobe.conf 中添加以下行,以设置 hangcheck 内核模块参数。
/etc/modprobe.confoptions hangcheck-timer hangcheck_tick=30 hangcheck_margin=180
要立即加载模块,执行&#8220;modprobe -v hangcheck-timer&#8221;。
为 OCFS2 和 Oracle ASM 创建磁盘分区。为 OCFS2 (/dev/sdb) 和 Oracle ASM(/dev/sdc、/dev/sdd、/dev/sde)准备一组原始磁盘。
在 rac1 上,以 root 用户身份执行
# fdisk /dev/sdb
Command (m for help): n
Command action
primary partition (1-4)
Partition number (1-4): 1
First cylinder (1-512, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-512, default 512):
Using default value 512
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
# fdisk /dev/sdc
Command (m for help): n
Command action
primary partition (1-4)
Partition number (1-4): 1
First cylinder (1-391, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-391, default 391):
Using default value 391
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
# fdisk /dev/sdd
Command (m for help): n
Command action
primary partition (1-4)
Partition number (1-4): 1
First cylinder (1-391, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-391, default 391):
Using default value 391
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
# fdisk /dev/sde
Command (m for help): n
Command action
primary partition (1-4)
Partition number (1-4): 1
First cylinder (1-261, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-261, default 261):
Using default value 261
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.
# fdisk -l
Disk /dev/sda: 21.4 GB,
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot
Linux swap
Disk /dev/sdb: 536 MB,
64 heads, 32 sectors/track, 512 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Device Boot
Disk /dev/sdc: 3221 MB,
255 heads, 63 sectors/track, 391 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot
Disk /dev/sdd: 3221 MB,
255 heads, 63 sectors/track, 391 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot
Disk /dev/sde: 2147 MB,
255 heads, 63 sectors/track, 261 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot
安装 oracleasmlib 程序包。 从 OTN
ASM 库,并以 root 用户身份安装 ASM RPM。
# rpm -Uvh oracleasmlib-2.0.2-1.i386.rpm
Preparing...
########################################### [100%]
1:oracleasmlib
########################################### [100%]
在这个阶段,您应该已经安装了以下 ASM 程序包。
[root@rac1 swdl]# rpm -qa | grep oracleasm
oracleasm-support-2.0.3-2
oracleasm-2.6.9-42.0.0.0.1.ELsmp-2.0.3-2
oracleasmlib-2.0.2-1
为 ASM 磁盘映射原始设备。仅当您打算使用标准 Linux I/O 创建 ASM 磁盘时,才需要原始设备映射。创建 ASM 磁盘的另一个方法是使用 Oracle 提供的 ASM 库驱动程序。稍后,您将使用 ASM 库驱动程序配置 ASM 磁盘。
执行以下任务,将原始设备映射到先前创建的共享分区。每次引导集群节点时,原始设备都必须与块设备绑定。
将以下行添加到 /etc/sysconfig/rawdevices 中。
/etc/sysconfig/rawdevices
/dev/raw/raw1 /dev/sdc1
/dev/raw/raw2 /dev/sdd1
/dev/raw/raw3 /dev/sde1
要使映射立即生效,以 root 用户身份执行以下命令:
# /sbin/service rawdevices restart
Assigning devices:
/dev/raw/raw1
/dev/raw/raw1:
bound to major 8, minor 33
/dev/raw/raw2
/dev/raw/raw2:
bound to major 8, minor 49
/dev/raw/raw3
/dev/raw/raw3:
bound to major 8, minor 65
# chown oracle:dba /dev/raw/raw[1-3]
# chmod 660 /dev/raw/raw[1-3]
# ls -lat /dev/raw/raw*
crw-rw----
1 oracle dba 162, 3 Nov
4 07:04 /dev/raw/raw3
crw-rw----
1 oracle dba 162, 2 Nov
4 07:04 /dev/raw/raw2
crw-rw----
1 oracle dba 162, 1 Nov
4 07:04 /dev/raw/raw1
以 oracle 用户身份执行
rac1-& ln -sf /dev/raw/raw1 /u01/oradata/devdb/asmdisk1
rac1-& ln -sf /dev/raw/raw2 /u01/oradata/devdb/asmdisk2
rac1-& ln -sf /dev/raw/raw3 /u01/oradata/devdb/asmdisk3
修改 /etc/udev/permissions.d/50-udev.permissions。原始设备在引导时会重新映射。默认情况下,在引导时原始设备的拥有者将更改为 root 用户。如果拥有者不是 oracle 用户,则 ASM 在访问共享分区时会出现问题。在 /etc/udev/permissions.d/50-udev.permissions 中为原始行&#8220;raw/*:root:disk:;添加注释,然后添加一个新行&#8220;raw/*:oracle:dba:;。
/etc/udev/permissions.d/50-udev.permissions
# raw devices
ram*:root:disk:0660
#raw/*:root:disk:0660
raw/*:oracle:dba:0660
4. 创建并配置第二个虚拟机
要创建第二个虚拟机,只需关闭第一个虚拟机,将 d:\vm\rac\rac1 中的所有文件复制到 d:\vm\rac\rac2,然后更改几个配置即可。
修改网络配置。
在 rac1 上,以 root 用户身份执行# shutdown &#8211;h now
在主机系统上,将 rac1 文件夹中的所有文件复制到 rac2。D:\&copy d:\vm\rac\rac1 d:\vm\rac\rac2
在 VMware Server 控制台上,按 CTRL-O 打开第二个虚拟机 d:\rac\rac2\Red Hat Enterprise Linux 4.vmx。
VMware Server 控制台:
将虚拟机名称从 rac1 重命名为 rac2。右键单击您刚才打开的新 rac1 选项卡,然后选择 Settings。
选择 Options 选项卡。1. 虚拟机名称:输入&#8220;rac2&#8221;。
单击 Start this virtual machine 启动 rac2,保留 rac1 为电源关闭状态。
rac2 — 虚拟机:选择 Create a new identifier。
以 root 用户身份登录并执行 system-config-network,以修改网络配置。
IP 地址:双击每个以太网设备,并使用下面的表进行必要的更改。
默认网关地址
192.168.2.132
255.255.255.0
192.168.2.1
10.10.10.32
255.255.255.0
&保留空白&
MAC 地址:导航到 Hardware Device 选项卡,并探测每个以太网设备的新 MAC 地址。
主机名和 DNS:使用下面的表对 DNS 选项卡中的项进行必要的更改,然后按 CTRL-S 保存。
DNS 搜索路径
rac2.mycorpdomain.com
输入 DNS IP 地址或保留空白。
输入 DNS IP 地址或保留空白。
接受默认设置或保留空白。
最后,激活每个以太网设备。
修改 /etc/hosts。将以下项添加到 /etc/hosts 中。
127.0.0.1 localhost稍后,在 Oracle 集群件软件安装期间,VIPCA 将尝试使用回送地址。
修改 /export/home/oracle/.profile。用 devdb2 替换 ORACLE_SID 的值。
使用 SSH 建立用户等效性。在集群就绪服务 (CRS) 和 RAC 安装过程中,Oracle Universal Installer (OUI) 必须能够以 oracle 的身份将软件复制到所有 RAC 节点,而不提示输入口令。在 Oracle 10g 中,可以使用 ssh 代替 rsh 完成此操作。
要建立用户等效性,请在两个节点上以 oracle 用户身份生成用户的公钥和私钥。打开 rac1 的电源,在这两个节点上执行以下任务。在 rac1 上执行
rac1-& mkdir ~/.ssh
rac1-& chmod 700 ~/.ssh
rac1-& ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/export/home/oracle/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /export/home/oracle/.ssh/id_rsa.
Your public key has been saved in /export/home/oracle/.ssh/id_rsa.pub.
The key fingerprint is:
87:54:4f:92:ba:ed:7b:51:5d:1d:59:5b:f9:44:da:b6 oracle@rac1.mycorpdomain.com
rac1-& ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/export/home/oracle/.ssh/id_dsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /export/home/oracle/.ssh/id_dsa.
Your public key has been saved in /export/home/oracle/.ssh/id_dsa.pub.
The key fingerprint is:
31:76:96:e6:fc:b7:25:04:fd:70:42:04:1f:fc:9a:26 oracle@rac1.mycorpdomain.com
在 rac2 上执行
rac2-& mkdir ~/.ssh
rac2-& chmod 700 ~/.ssh
rac2-& ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/export/home/oracle/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /export/home/oracle/.ssh/id_rsa.
Your public key has been saved in /export/home/oracle/.ssh/id_rsa.pub.
The key fingerprint is:
29:5a:35:ac:0a:03:2c:38:22:3c:95:5d:68:aa:56:66 oracle@rac2.mycorpdomain.com
rac2-& ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/export/home/oracle/.ssh/id_dsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /export/home/oracle/.ssh/id_dsa.
Your public key has been saved in /export/home/oracle/.ssh/id_dsa.pub.
The key fingerprint is:
4c:b2:5a:8d:56:0f:dc:7b:bc:e0:cd:3b:8e:b9:5c:7c oracle@rac2.mycorpdomain.com
在 rac1 上执行
rac1-& cat ~/.ssh/id_rsa.pub && ~/.ssh/authorized_keys
rac1-& cat ~/.ssh/id_dsa.pub && ~/.ssh/authorized_keys
rac1-& ssh rac2 cat ~/.ssh/id_rsa.pub && ~/.ssh/authorized_keys
The authenticity of host ‘rac2 (192.168.2.132)‘ can‘t be established.
RSA key fingerprint is 63:d3:52:d4:4d:e2:cb:ac:8d:4a:66:9f:f1:ab:28:1f.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ‘rac2,192.168.2.132‘ (RSA) to the list of known hosts.
oracle@rac2‘s password:
rac1-& ssh rac2 cat ~/.ssh/id_dsa.pub && ~/.ssh/authorized_keys
oracle@rac2‘s password:
rac1-& scp ~/.ssh/authorized_keys rac2:~/.ssh/authorized_keys
oracle@rac2‘s password:
authorized_keys
在每个节点上测试连接。验证当您再次运行以下命令时,系统是否不提示您输入口令。
ssh rac1 date
ssh rac2 date
ssh rac1-priv date
ssh rac2-priv date
ssh rac1.mycorpdomain.com date
ssh rac2.mycorpdomain.com date
ssh rac1-priv.mycorpdomain.com date
ssh rac2-priv.mycorpdomain.com date
5. 配置 Oracle 自动存储管理 (ASM)
Oracle ASM 与 Oracle 数据库紧密集成在一起,并与 Oracle 的数据管理工具套件配合工作。它可以简化数据库存储管理,并提供原始磁盘 I/O 的性能。
配置 ASMLib。以 root 用户身份在两个节点上配置 ASMLib。
# /etc/init.d/oracleasm configure
Configuring the Oracle ASM library driver.
This will configure the on-boot properties of the Oracle ASM library
The following questions will determine whether the driver is
loaded on boot and what permissions it will have.
The current values
will be shown in brackets (‘[]‘).
without typing an
answer will keep that current value.
Ctrl-C will abort.
Default user to own the driver interface []: oracle
Default group to own the driver interface []: dba
Start Oracle ASM library driver on boot (y/n) [n]: y
Fix permissions of Oracle ASM disks on boot (y/n) [y]: y
Writing Oracle ASM library driver configuration:
Loading module "oracleasm":
Mounting ASMlib driver filesystem:
Scanning system for ASM disks:
创建 ASM 磁盘。以 root 用户身份在任何一个节点上创建 ASM 磁盘。
# /etc/init.d/oracleasm createdisk VOL1 /dev/sdc1
Marking disk "/dev/sdc1" as an ASM disk:
# /etc/init.d/oracleasm createdisk VOL2 /dev/sdd1
Marking disk "/dev/sdd1" as an ASM disk:
# /etc/init.d/oracleasm createdisk VOL3 /dev/sde1
Marking disk "/dev/sde1" as an ASM disk:
Verify that the ASM disks are visible from every node.
# /etc/init.d/oracleasm scandisks
Scanning system for ASM disks:
# /etc/init.d/oracleasm listdisks
6. 配置 Oracle 集群文件系统 (OCFS2)
OCFS2 是 Oracle 开发的一个通用集群文件系统,与 Enterprise Linux 内核集成在一起。它允许所有节点在集群文件系统上同时共享文件,因而消除了管理原始设备的需求。这里,您将在 OCFS2 文件系统中寄宿 OCR 和表决磁盘。您可以从 OCFS2 用户指南获取有关 OCFS2 的其他信息。
在 Enterprise Linux 安装期间,您应该已经安装了 OCFS2 RPM。验证 RPM 是否已经安装在两个节点上。
rac1-& rpm -qa | grep ocfs
ocfs2-tools-1.2.2-2
ocfs2console-1.2.2-2
ocfs2-2.6.9-42.0.0.0.1.ELsmp-1.2.3-2
创建 OCFS2 配置文件。 在 rac1 上,以 root 用户身份执行
# ocfs2console
OCFS2 控制台:选择 Cluster,然后选择 Configure Nodes。
&#8220;集群堆栈已经启动&#8221;:单击 Close。
节点配置:单击 Add。
新增节点:添加以下节点,然后单击 Apply。
名称:rac1
IP 地址: 192.168.2.131
IP 端口: 7777
名称:rac2
IP 地址: 192.168.2.132
IP 端口: 7777
验证生成的配置文件。
# more /etc/ocfs2/cluster.conf
ip_port = 7777
ip_address = 192.168.2.131
number = 0
name = rac1
cluster = ocfs2
ip_port = 7777
ip_address = 192.168.2.132
number = 1
name = rac2
cluster = ocfs2
node_count = 2
name = ocfs2
将配置文件传播到 rac2。您可以在 rac2 上重新运行上述步骤以生成配置文件,或者在 rac1 的 OCFS2 控制台上选择 Cluster 和 Propagate Configuration 以将配置文件传播到 rac2。
配置 O2CB 驱动程序。O2CB 是一组集群服务,负责管理节点与集群文件系统之间的通信。下面是对各个服务的说明:
NM:用于跟踪 cluster.conf 中的所有节点的节点管理器
HB:当节点加入或离开集群时向上/向下发出通知的心跳服务
TCP:处理节点之间的通信
DLM:用于跟踪所有锁、这些锁的所有者以及状态的分布式锁管理器
CONFIGFS:在 /config 中挂载的用户空间驱动的配置文件系统
DLMFS:用户空间与内核空间 DLM 的接口
在两个节点上执行下面的过程,将 O2CB 配置为在引导时启动。
当系统提示您指定心跳死亡阈值时,您必须指定一个大于 7 的值,以防止节点由于较慢的 IDE 磁盘驱动器而崩溃。心跳死亡阈值是一个用于计算隔离时间的变量。
Fence time (seconds) = (heartbeat dead threshold -1) * 2
在我们的环境中,120 秒的隔离时间很合适。两个节点上的心跳死亡阈值应该完全相同。
以 root 用户身份执行
# /etc/init.d/o2cb unload
Stopping O2CB cluster ocfs2: OK
Unmounting ocfs2_dlmfs filesystem: OK
Unloading module "ocfs2_dlmfs": OK
Unmounting configfs filesystem: OK
Unloading module "configfs": OK
# /etc/init.d/o2cb configure
Configuring the O2CB driver.
This will configure the on-boot properties of the O2CB driver.
The following questions will determine whether the driver is loaded on
The current values will be shown in brackets (‘[]‘).
without typing an answer will keep that current value.
will abort.
Load O2CB driver on boot (y/n) [y]: y
Cluster to start on boot (Enter "none" to clear) [ocfs2]:
Specify heartbeat dead threshold (&=7) [7]: 61
Writing O2CB configuration: OK
Loading module "configfs": OK
Mounting configfs filesystem at /config: OK
Loading module "ocfs2_nodemanager": OK
Loading module "ocfs2_dlm": OK
Loading module "ocfs2_dlmfs": OK
Mounting ocfs2_dlmfs filesystem at /dlm: OK
Starting O2CB cluster ocfs2: OK
格式化文件系统。在格式化和挂载文件系统之前,应验证 O2CB 在两个节点上均联机;O2CB 心跳当前没有活动,因为文件系统未挂载。
# /etc/init.d/o2cb status
Module "configfs": Loaded
Filesystem "configfs": Mounted
Module "ocfs2_nodemanager": Loaded
Module "ocfs2_dlm": Loaded
Module "ocfs2_dlmfs": Loaded
Filesystem "ocfs2_dlmfs": Mounted
Checking O2CB cluster ocfs2: Online
Checking O2CB heartbeat: Not active
您只需在一个节点上格式化文件系统。在 rac1 上,以 root 用户身份执行
# ocfs2console
OCFS2 控制台:选择 Tasks、Format。
可用设备:/dev/sdb1
卷标:oracle
集群大小:Auto
节点插槽数量: 4
块大小:Auto
OCFS2 控制台:按 CTRL-Q 退出。
挂载文件系统。要挂载文件系统,在两个节点上执行以下命令。
# mount -t ocfs2 -o datavolume,nointr /dev/sdb1 /ocfs
要在引导时挂载文件系统,在两个节点的 /etc/fstab 中添加以下行。
/etc/fstab
/dev/sdb1 /ocfs ocfs2 _netdev,datavolume,nointr 0 0
创建 Oracle 集群件目录。在 OCR 和表决磁盘将驻留的 OCFS2 文件系统中创建目录。
在 rac1 上执行
# mkdir /ocfs/clusterware
# chown -R oracle:dba /ocfs
现在,您已经完成了 OCFS2 的设置。验证您可以在两个节点的共享集群文件系统上读写文件。
7. 安装 Oracle 集群件
下载后,在 rac1 上以 oracle 用户身份执行
rac1-& /u01/staging/clusterware/runInstaller
欢迎页面:单击 Next。
指定 Inventory 目录和证书:
输入 inventory 目录的完整路径:/u01/app/oracle/oraInventory。
指定操作系统组名:oinstall。
指定 Home 详细内容:
名称:OraCrs10g_home
/u01/app/oracle/product/10.2.0/crs_1
特定于产品的必要条件检查:
忽略有关物理内存要求的警告。
指定集群配置:单击 Add。
公共节点名称:rac2.mycorpdomain.com
专用节点名称:rac2-priv.mycorpdomain.com
虚拟主机名称:rac2-vip.mycorpdomain.com
指定网络接口用法:
接口名称:eth0
子网: 192.168.2.0
接口类型:Public
接口名称:eth1
子网: 10.10.10.0
接口类型:Private
指定 Oracle 集群注册表 (OCR) 位置:选择 External Redundancy。为了简单起见,这里将不镜像 OCR。在生产环境中,您可能会考虑复用 OCR 以实现更高的冗余。
指定 OCR 位置:/ocfs/clusterware/ocr
指定表决磁盘位置:选择 External Redundancy。同样,为了简单起见,我们选择不镜像表决磁盘。
表决磁盘位置:/ocfs/clusterware/votingdisk
摘要:单击 Install。
执行配置脚本:以 root 用户身份按顺序执行以下脚本(一次执行一个)。在当前脚本完成后,再继续执行下一个脚本。
在 rac1 上执行 /u01/app/oracle/oraInventory/orainstRoot.sh。
在 rac2 上执行 /u01/app/oracle/oraInventory/orainstRoot.sh。
在 rac1 上执行 /u01/app/oracle/product/10.2.0/crs_1/root.sh。
在 rac2 上执行 /u01/app/oracle/product/10.2.0/crs_1/root.sh。
rac2 上的 root.sh 脚本会自动调用 VIPCA,但会因为&#8220;The given interface(s), "eth0" is not public.Public interfaces should be used to configure virtual IPs.&#8221;错误而失败。如果您的公共接口使用不可路由的 IP 地址 (192.168.x.x),则 Oracle 集群验证实用程序 (CVU) 将无法找到合适的公共接口。一种解决方法是手动运行 VIPCA。
以 root 用户身份在第二个节点上手动调用 VIPCA。# /u01/app/oracle/product/10.2.0/crs_1/bin/vipca
欢迎页面:单击 Next。
网络接口:选择 eth0。
集群节点的虚拟 IP:
节点名称:rac1
IP 别名:rac1-vip
IP 地址: 192.168.2.31
子网掩码: 255.255.255.0
节点名称:rac2
IP 别名:rac2-vip
IP 地址: 192.168.2.32
子网掩码: 255.255.255.0
摘要:单击 Finish。
配置助手进度对话框:配置完成后,单击 OK。
配置结果:单击 Exit。
返回到 rac1 的执行配置脚本屏幕,然后单击 OK。
配置助手:验证所有检查均成功。OUI 在最后会执行集群件安装后检查。如果 CVU 失败,请更正问题,并以 oracle 用户身份重新运行以下命令:
rac1-& /u01/app/oracle/product/10.2.0/crs_1/bin/cluvfy stage
-post crsinst -n rac1,rac2
Performing post-checks for cluster services setup
Checking node reachability...
Node reachability check passed from node "rac1".
Checking user equivalence...
User equivalence check passed for user "oracle".
Checking Cluster manager integrity...
Checking CSS daemon...
Daemon status check passed for "CSS daemon".
Cluster manager integrity check passed.
Checking cluster integrity...
Cluster integrity check passed
Checking OCR integrity...
Checking the absence of a non-clustered configuration...
All nodes free of non-clustered, local-only configurations.
Uniqueness check for OCR device passed.
Checking the version of OCR...
OCR of correct Version "2" exists.
Checking data integrity of OCR...
Data integrity check for OCR passed.
OCR integrity check passed.
Checking CRS integrity...
Checking daemon liveness...
Liveness check passed for "CRS daemon".
Checking daemon liveness...
Liveness check passed for "CSS daemon".
Checking daemon liveness...
Liveness check passed for "EVM daemon".
Checking CRS health...
CRS health check passed.
CRS integrity check passed.
Checking node application existence...
Checking existence of VIP node application (required)
Check passed.
Checking existence of ONS node application (optional)
Check passed.
Checking existence of GSD node application (optional)
Check passed.
Post-check for cluster services setup was successful.
安装结束:单击 Exit。
8. 安装 Oracle 数据库 10g 第 2 版
下载后,在 rac1 上以 oracle 用户身份执行
rac1-& /u01/staging/database/runInstaller
欢迎页面:单击 Next。
选择安装类型:
选择 Enterprise Edition。
指定 Home 详细内容:
名称:OraDb10g_home1
路径:/u01/app/oracle/product/10.2.0/db_1
指定硬件集群安装模式:
选择 Cluster Installation。
单击 Select All。
特定于产品的必要条件检查:
忽略有关物理内存要求的警告。
选择配置选项:
创建数据库。
选择数据库配置:
选择 Advanced。
摘要:单击 Install。
数据库模板:
选择 General Purpose。
数据库标识:
全局数据库名称:devdb
SID 前缀:devdb
管理选项:
选择 Configure the Database with Enterprise Manager。
数据库证书:
针对所有帐户使用相同的口令。
存储选项:
选择 Automatic Storage Management (ASM)。
创建 ASM 实例:
SYS 口令:&输入 SYS 口令&。
选择 Create initialization parameter file (IFILE)。
ASM 磁盘组:
单击 Create New。
创建磁盘组:创建两个磁盘组 — DG1 和 RECOVERYDEST。
磁盘组名称:DG1
选择 Normal 冗余。
选择磁盘路径 ORCL:VOL1 和 ORCL:VOL2。如果您已经使用标准 Linux I/O 配置了 ASM 磁盘,则请选择 /u01/oradata/devdb/asmdisk1 和 /u01/oradata/devdb/asmdisk2。
磁盘组名称:RECOVERYDEST。
选择 External 冗余。
选择磁盘路径 ORCL:VOL3。如果您已经使用标准 Linux I/O 配置了 ASM 磁盘,则请选择 /u01/oradata/devdb/asmdisk3。
ASM 磁盘组:单击 Next。
数据库文件位置:
选择 Use Oracle-Managed Files。
数据库区域:+DG1
恢复配置:
选择 Specify Flash Recovery Area。
闪回恢复区:+RECOVERYDEST
闪回恢复区大小:1500M
选择 Enable Archiving。
数据库内容:
选择或取消选择示例模式。
数据库服务:
单击 Next。稍后,您可以使用 DBCA 或 srvctl 创建或修改其他服务。
初始化参数:
选择 Custom。
共享内存管理:Automatic
SGA 大小:200MB
PGA 大小:25MB
b. 根据需要修改其余参数。
数据库存储:单击 Next。
创建选项:
选择 Create Database。
单击 Finish。
摘要:单击 OK。
数据库配置助手:单击 Exit。
执行配置脚本:以 root 用户身份执行下面的脚本。
在 rac1 上执行 /u01/app/oracle/product/10.2.0/db_1/root.sh。
在 rac2 上执行 /u01/app/oracle/product/10.2.0/db_1/root.sh。
返回到 rac1 的执行配置脚本屏幕,然后单击 OK。
安装结束:单击 Exit。
恭喜,您已经在 Enterprise Linux 上成功安装了 Oracle RAC 数据库 10g!
9. 探索 RAC 数据库环境
现在,您已经成功安装了虚拟双节点 RAC 数据库,下面我们来探究一下您刚刚配置的环境。
检查应用程序资源的状态。
rac1-& crs_stat -t
------------------------------------------------------------
ora.devdb.db
application
ora....b1.inst application
ora....b2.inst application
ora....SM1.asm application
ora....C1.lsnr application
ora.rac1.gsd
application
ora.rac1.ons
application
ora.rac1.vip
application
ora....SM2.asm application
ora....C2.lsnr application
ora.rac2.gsd
application
ora.rac2.ons
application
ora.rac2.vip
application
rac1-& srvctl status nodeapps -n rac1
VIP is running on node: rac1
GSD is running on node: rac1
Listener is running on node: rac1
ONS daemon is running on node: rac1
rac1-& srvctl status nodeapps -n rac2
VIP is running on node: rac2
GSD is running on node: rac2
Listener is running on node: rac2
ONS daemon is running on node: rac2
rac1-& srvctl status asm -n rac1
ASM instance +ASM1 is running on node rac1.
rac1-& srvctl status asm -n rac2
ASM instance +ASM2 is running on node rac2.
rac1-& srvctl status database -d devdb
Instance devdb1 is running on node rac1
Instance devdb2 is running on node rac2
rac1-& srvctl status service -d devdb
检查 Oracle 集群件的状态。
rac1-& crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
rac2-& crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
在命令行执行 crsctl 以查看所有可用选项。
列出 RAC 实例。
SQL& select
instance_name,
host_name,
INSTANCE_NAME
THREAD# STATUS
-------------- --------------------- ------- -------- ------
rac1.mycorpdomain.com STARTED
rac2.mycorpdomain.com STARTED
检查连接。
验证您能够连接到每个节点上的实例和服务。
sqlplus system@devdb1
sqlplus system@devdb2
sqlplus system@devdb
检查数据库配置。
rac1-& export ORACLE_SID=devdb1
rac1-& sqlplus / as sysdba
SQL& show sga
Total System Global Area
Fixed Size
1218556 bytes
Variable Size
Database Buffers
Redo Buffers
2973696 bytes
SQL& select file_name,bytes/ from dba_data_
------------------------------------------- ---------------
+DG1/devdb/datafile/users.259.
+DG1/devdb/datafile/sysaux.257.
+DG1/devdb/datafile/undotbs1.258.
+DG1/devdb/datafile/system.256.
+DG1/devdb/datafile/undotbs2.264.
SQL& select
is_recovery_dest_file
from v$logfile
order by group#;
GROUP# TYPE
------ ------- --------------------------------------------------- ---
+RECOVERYDEST/devdb/onlinelog/group_1.257. YES
+DG1/devdb/onlinelog/group_1.261.
+RECOVERYDEST/devdb/onlinelog/group_2.258. YES
+DG1/devdb/onlinelog/group_2.262.
+DG1/devdb/onlinelog/group_3.265.
+RECOVERYDEST/devdb/onlinelog/group_3.259. YES
+DG1/devdb/onlinelog/group_4.266.
+RECOVERYDEST/devdb/onlinelog/group_4.260. YES
rac1-& export ORACLE_SID=+ASM1
rac1-& sqlplus / as sysdba
SQL& show sga
Total System Global Area
Fixed Size
1217884 bytes
Variable Size
SQL& show parameter asm_disk
------------------------------ ----------- ------------------------
asm_diskgroups
DG1, RECOVERYDEST
asm_diskstring
SQL& select
group_number,
allocation_unit_size alloc_unit_size,
usable_file_mb
from v$asm_
NUMBER NAME
SIZE STATE
------ ------------ -------- ------- ------ ------ -------
1048576 MOUNTED NORMAL
2 RECOVERYDEST
1048576 MOUNTED EXTERN
SQL& select
header_status,
total_mb free_mb,
trunc(bytes_read/) read_mb,
trunc(bytes_written/) write_mb
from v$asm_
HEADER_STATU
----- ---------- ------------ ---------- ---------- ----------
创建表空间。
SQL& connect system/oracle@devdb
Connected.
SQL& create tablespace test_d datafile ‘+DG1‘ size 10M;
Tablespace created.
SQL& select
file_name,
tablespace_name,
from dba_data_files
where tablespace_name=‘TEST_D‘;
TABLESPACE_NAME
---------------------------------------- --------------- ----------
+DG1/devdb/datafile/test_d.269. TEST_D
创建在线重做日志文件组。
SQL& connect system/oracle@devdb
Connected.
SQL& alter database add logfile thread 1 group 5 size 50M;
Database altered.
SQL& alter database add logfile thread 2 group 6 size 50M;
Database altered.
SQL& select
MEMBERS STATUS
---------- ---------- ---------- ---------- ----------------
2 INACTIVE
SQL& select
is_recovery_dest_file
from v$logfile
where group# in (5,6)
order by group#;
GROUP# TYPE
------ ------- ---------------------------------------------------- ---
+DG1/devdb/onlinelog/group_5.271.
+RECOVERYDEST/devdb/onlinelog/group_5.261.
+DG1/devdb/onlinelog/group_6.272.
+RECOVERYDEST/devdb/onlinelog/group_6.262.
检查闪回恢复区空间使用率。
SQL& select * from v$recovery_file_
SPACE_LIMIT SPACE_USED SPACE_RECLAIMABLE NUMBER_OF_FILES
------------- ----------- ---------- ----------------- ---------------
+RECOVERYDEST
SQL& select * from v$flash_recovery_area_
PERCENT_SPACE_USED PERCENT_SPACE_RECLAIMABLE NUMBER_OF_FILES
------------ ------------------ ------------------------- ---------------
CONTROLFILE
ARCHIVELOG
BACKUPPIECE
FLASHBACKLOG
启动和停止应用程序资源。
遵循以下步骤启动和停止单独的应用程序资源。
srvctl start nodeapps -n &node1 hostname&
srvctl start nodeapps -n &node2 hostname&
srvctl start asm -n &node1 hostname&
srvctl start asm -n &node2 hostname&
srvctl start database -d &database name&
srvctl start service -d &database name& -s &service name&
crs_stat -t
srvctl stop service -d &database name& -s &service name&
srvctl stop database -d &database name&
srvctl stop asm -n &node1 hostname&
srvctl stop asm -n &node2 hostname&
srvctl stop nodeapps -n &node1 hostname&
srvctl stop nodeapps -n &node2 hostname&
crs_stat -t
10. 测试透明故障切换 (TAF)
Oracle TAF 中的故障切换机制使任何失败的数据库连接能够重新连接到集群中的其他节点。故障切换对用户是透明的。Oracle 在故障切换实例上重新执行查询并继续向用户显示余下的结果。
创建一个新的数据库服务。首先,创建一个名为 CRM 的新服务。可以使用 DBCA 或 srvctl 实用程序来创建数据库服务。这里,您将使用 DBCA 在 devdb1 上创建 CRM 服务。
在 rac1 上,以 oracle 用户身份执行
rac1-& dbca
欢迎页面:选择 Oracle Real Application Clusters database。
操作:选择 Services Management。
集群数据库列表:单击 Next。
数据库服务:单击 Add。
添加服务:输入&#8220;CRM&#8221;。
选择 devdb1 作为首选实例。
选择 devdb2 作为可用实例。
TAF 策略:选择 Basic。
单击 Finish。
数据库配置助手:单击 No 退出。
数据库配置助手将在 tnsnames.ora 中创建以下 CRM 服务名项:
(DESCRIPTION =
(ADDRESS = (PROTOCOL = TCP)(HOST = rac1-vip)(PORT = 1521))
(ADDRESS = (PROTOCOL = TCP)(HOST = rac2-vip)(PORT = 1521))
(LOAD_BALANCE = yes)
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = CRM)
(FAILOVER_MODE =
(TYPE = SELECT)
(METHOD = BASIC)
(RETRIES = 180)
(DELAY = 5)
SQL& connect system/oracle@devdb1
Connected.
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
devdb, CRM
SQL& connect system/oracle@devdb2
Connected.
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
使用 CRM 服务连接第一个会话。如果 failover_type 和 failover_mode 返回的输出为&#8220;NONE&#8221;,则验证是否在 tnsnames.ora 中正确配置了 CRM 服务。
SQL& connect system/oracle@crm
Connected.
SQL& select
instance_number instance#,
instance_name,
host_name,
INSTANCE# INSTANCE_NAME
---------- ---------------- --------------------- ------------
rac1.mycorpdomain.com OPEN
SQL& select
failover_type,
failover_method,
failed_over
from v$session
where username=‘SYSTEM‘;
FAILOVER_TYPE FAILOVER_METHOD FAILED_OVER
------------- --------------- ----------------
从其他会话中关闭该实例。在 CRM 实例上以 sys 用户身份连接,并关闭该实例。
rac1-& export ORACLE_SID=devdb1
rac1-& sqlplus / as sysdba
SQL& select
instance_number instance#,
instance_name,
host_name,
INSTANCE# INSTANCE_NAME
---------- ---------------- --------------------- ------------
rac1.mycorpdomain.com OPEN
ORACLE instance shut down.
验证会话已经完成故障切换。从您先前打开的同一 CRM 会话执行以下查询,以验证该会话已经故障切换到其他实例。
SQL& select
instance_number instance#,
instance_name,
host_name,
INSTANCE# INSTANCE_NAME
---------- ---------------- --------------------- ------------
rac2.mycorpdomain.com OPEN
SQL& select
failover_type,
failover_method,
failed_over
from v$session
where username=‘SYSTEM‘;
FAILOVER_TYPE FAILOVER_METHOD FAILED_OVER
------------- --------------- ----------------
将 CRM 服务重新定位到首选实例。恢复 devdb1 之后,CRM 服务不会自动重新定位到首选实例。您必须手动将服务重新定位到 devdb1。
rac1-& export ORACLE_SID=devdb1
rac1-& sqlplus / as sysdba
SQL& startup
ORACLE instance started.
Total System Global Area
Fixed Size
1218556 bytes
Variable Size
Database Buffers
Redo Buffers
2973696 bytes
Database mounted.
Database opened.
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
rac2-& export ORACLE_SID=devdb2
rac2-& sqlplus / as sysdba
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
devdb, CRM
rac1-& srvctl relocate service -d devdb -s crm -i devdb2 -t devdb1
SQL& connect system/oracle@devdb1
Connected.
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
devdb, CRM
SQL& connect system/oracle@devdb2
Connected.
SQL& show parameter service
------------------------------ ----------- ------------------------
service_names
11. 数据库备份与恢复
使用 Oracle 恢复管理器 (RMAN) 备份和恢复 Oracle RAC 数据库的过程与单实例数据库的备份和恢复过程相同。
在本部分中,您将看到一个非常简单的备份和恢复案例:
1. 执行完整的数据库备份。2. 在 test_d 表空间中创建 mytable 表。3. 在 t1 时间,向 mytable 中插入第一个记录。4 在 t2 时间,向 mytable 中插入第二个记录。5. 在 t3 时间,删除 mytable 表。6. 将 test_d 表空间恢复到某个时间点。7. 验证恢复结果。
执行完整的数据库备份。
rac1-& rman nocatalog target /
Recovery Manager: Release 10.2.0.1.0 - Production on Mon Nov 13 18:15:09 2006
Copyright (c) , Oracle.
All rights reserved.
connected to target database: DEVDB (DBID=)
using target database control file instead of recovery catalog
RMAN& configure contr
RMAN& backup database plus arc
在 test_d 表空间中创建 mytable 表。
19:01:56 SQL& connect system/oracle@devdb2
Connected.
19:02:01 SQL& create table mytable (col1 number) tablespace test_d;
Table created.
在 t1 时间,向 mytable 中插入第一个记录。
19:02:50 SQL& insert into mytable values (1);
1 row created.
19:02:59 SQL&
Commit complete.
在 t2 时间,向 mytable 中插入第二个记录。
19:04:41 SQL& insert into mytable values (2);
1 row created.
19:04:46 SQL&
Commit complete.
在 t3 时间,删除 mytable 表。
19:05:09 SQL&
Table dropped.
将 test_d 表空间恢复到某个时间点。
为辅助数据库创建辅助目录。
rac1-& mkdir /u01/app/oracle/aux
RMAN& recover tablespace test_d
2& until time "to_date(‘13-NOV-:10‘,‘DD-MON-YYYY HH24:MI:SS‘)"
3& auxiliary destination ‘/u01/app/oracle/aux‘;
RMAN& backup tablespace test_d;
RMAN& sql ‘alter tablespace test_d online‘;
验证恢复结果。
19:15:09 SQL& connect system/oracle@devdb2
Connected.
19:15:16 SQL& select *
----------
12. 探索 Oracle 企业管理器 (OEM) 数据库控制台
Oracle 企业管理器数据库控制台提供了一个非常好的集成式综合 GUI 界面,用于管理集群数据库环境。您可以在控制台内执行几乎所有的任务。
要访问数据库控制台,请打开 Web 浏览器并输入下面的 URL。以 sysman 用户身份登录,并输入您先前在数据库安装期间选择的口令。
http://rac1:1158/em
启动和停止数据库控制台。
rac1-& emctl stop dbconsole
TZ set to US/Eastern
Oracle Enterprise Manager 10g Database Control Release 10.2.0.1.0
Copyright (c)
Oracle Corporation.
All rights reserved.
http://rac1.mycorpdomain.com:1158/em/console/aboutApplication
Stopping Oracle Enterprise Manager 10g Database Control ...
rac1-& emctl start dbconsole
TZ set to US/Eastern
Oracle Enterprise Manager 10g Database Control Release 10.2.0.1.0
Copyright (c)
Oracle Corporation.
All rights reserved.
http://rac1.mycorpdomain.com:1158/em/console/aboutApplication
Starting Oracle Enterprise Manager 10g Database Control
................... started.
------------------------------------------------------------------
Logs are generated in directory
/u01/app/oracle/product/10.2.0/db_1/rac1_devdb1/sysman/log
验证数据库控制台的状态。
rac1-& emctl status dbconsole
TZ set to US/Eastern
Oracle Enterprise Manager 10g Database Control Release 10.2.0.1.0
Copyright (c)
Oracle Corporation.
All rights reserved.
http://rac1.mycorpdomain.com:1158/em/console/aboutApplication
Oracle Enterprise Manager 10g is running.
------------------------------------------------------------------
Logs are generated in directory
/u01/app/oracle/product/10.2.0/db_1/rac1_devdb1/sysman/log
rac1-& emctl status agent
TZ set to US/Eastern
Oracle Enterprise Manager 10g Database Control Release 10.2.0.1.0
Copyright (c)
Oracle Corporation.
All rights reserved.
---------------------------------------------------------------
Agent Version
: 10.1.0.4.1
OMS Version
: 10.1.0.4.0
Protocol Version
: 10.1.0.2.0
Agent Home
: /u01/app/oracle/product/10.2.0/db_1/rac1_devdb1
Agent binaries
: /u01/app/oracle/product/10.2.0/db_1
Agent Process ID
Parent Process ID : 8171
: http://rac1.mycorpdomain.com:3938/emd/main
Started at
Started by user
Last Reload
Last successful upload
Total Megabytes of XML files uploaded so far :
Number of XML files pending upload
Size of XML files pending upload(MB)
Available disk space on upload filesystem
---------------------------------------------------------------
Agent is Running and Ready
13. 常见问题
下面是可能对您有用的问题和解决方法摘要列表。
问题 1:无法激活以太网设备。错误消息为&#8220;Cannot activate network device eth0!Device eth0 has different MAC address than expected, ignoring.&#8221;
解决方法:&#8220;ifconfig&#8221;报告的 MAC 地址与 /etc/sysconfig/network-scripts/ifcfg-eth0 不匹配。您可以使用新的 MAC 地址更新文件,或者只需通过 system-config-network 工具探测新的 MAC 地址。
问题 2:无法生成 OCFS2 配置文件。在尝试生成 OCFS2 配置文件时,出现错误消息&#8220;Could not start cluster stack.This must be resolved before any OCFS2 filesystem can be mounted&#8221;。
解决方法:以 root 用户身份(而非 oracle 用户身份)执行 ocfs2console。
问题 3:无法在远程节点上安装 Oracle 集群件或 Oracle 数据库软件。在 Oracle 集群件软件安装期间,出现错误消息&#8220;/bin/tar:./inventory/Components21/oracle.ordim.server/10.2.0.1.0:time stamp
06:24:04 is 25 s in the future&#8221;。
解决方法:通过安装 VMware 工具来同步客户 OS 与主机 OS 的时间,并在 /boot/grub/grub.conf 中包含选项&#8220;clock=pit nosmp noapic nolapic&#8221;。请参阅第 3 部分,以获得更多信息。
问题 4:无法挂载 OCFS2 文件系统。在尝试挂载 ocfs2 文件系统时,出现错误消息&#8220;mount.ocfs2:Transport endpoint is not connected while mounting&#8221;。
解决方法:执行 /usr/bin/system-config-securitylevel 以禁用防火墙。
问题 5:无法启动 ONS 资源。当 VIPCA 尝试启动 ONS 应用程序资源时,出现错误消息&#8220;CRS-0215:Could not start resource &#8216;ora.rac2.ons&#8217;&#8221;。
解决方法:ONS 尝试访问本地主机,但无法解析 IP 地址。将以下项添加到 /etc/hosts 中。
127.0.0.1 localhost
希望通过本指南的学习,您可以免费、快速地使用 VMware Server 构建集群 Oracle 数据库环境。利用免费软件,开始学习并试用 Enterprise Linux 上的 Oracle RAC!
Vincent Chan () 是 MSD Inc. 的高级顾问。他是一位经过 Oracle 认证的高级数据库管理员,拥有十年以上的针对各种客户端设计和实施 Oracle 解决方案的经验。
TA的最新馆藏
喜欢该文的人也喜欢

我要回帖

更多关于 vmware login 的文章

 

随机推荐