重庆思庄Oracle、Redhat认证学习论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 74|回复: 0

[Oracle] oracle 11G rac 环境下修改IP地址

[复制链接]
发表于 2020-2-14 12:00:19 | 显示全部楼层 |阅读模式
本次实验基于11gR2 RAC做如下维护实验,以便需要在生产环境中做相应的更改时进行参考:
1、更改私有IP网段。
2、更改PUBLIC IP、VIP网段及地址,从192.168.133.10x网段改为192.168.133.15x网段。
3、更改SCAN IP地址。
本文实验环境如下:
  
主机名
  
IP地址
操作系统版本
数据库版本
orcl1
主机IP:192.168.133.104
  
VIP:192.168.133.114
  
私有IP:10.10.0.14
RHEL 7.5 64位
11.2.0.4.0
orcl2
主机IP:192.168.133.105
  
VIP:192.168.133.115
  
私有IP:10.10.0.15
RHEL 7.5 64
11.2.0.4.0
orcl1/ orcl2
SCAN IP:
  
私有IP:192.168.133.106
说明:由于不同的生产环境,配置千差万别,所需要的操作也不尽相同,所以本文中提到的操作步骤仅供参考。
更改RAC集群环境中IP地址
实验计划:
将私有IP地址由192.168.133.10x,改为192.168.133.15x网段,具体的IP地址由
192.168.133.104、105改为192.168.133.154、155。
操作概要如下:
1、在两个节点CRS均运行的情况,在某个节点上以grid用户执行命令添加新的私有网络:使用新的网卡设备和新的网段。
2、添加成功后,同时停掉并禁用(disable)两个节点的CRS。
3、在操作系统上完成网络相关的配置更改操作。
4、在两个节点上启用(enable)并启动CRS。
5、CRS启动成功,检查运行是否正常。
关于停机时间:
在生产环境中,此操作需要停业务,停机时间仅供参考,具体停机时间视具体情况而定。
具体操作步骤如下:查看当前设置
查看当前设置,以便保存现有设置。
以grid用户执行:$ORACLE_HOME/bin/oifcfggetif
  [grid@orcl1 ~]$ /u01/app/grid/11.2.0/dbhome_1/bin/oifcfg getif
  ens33   192.168.133.0  global  public
  
ens38  10.10.1.0   global  cluster_interconnect
  
查看当前VIP网段及所使用的网卡设备:
  
[grid@orcl1 ~]$  srvctl config nodeapps -a
  
Network exists:  1/192.168.133.0/255.255.255.0/ens33, type static
  
VIP exists:  /orcl1-vip/192.168.133.114/192.168.133.0/255.255.255.0/ens33, hosting node  orcl1
  
VIP exists: /orcl2-vip/192.168.133.115/192.168.133.0/255.255.255.0/ens33,  hosting node orcl2
  
查看VIP资源状态:
  
[grid@orcl1 ~]$ crsctl stat res ora.orcl1.vip
  
NAME=ora.orcl1.vip
  
TYPE=ora.cluster_vip_net1.type
  
TARGET=ONLINE
  
STATE=ONLINE on orcl1
  
  
[grid@orcl2 ~]$ crsctl stat res ora.orcl2.vip
  
NAME=ora.orcl2.vip
  
TYPE=ora.cluster_vip_net1.type
  
TARGET=ONLINE
  
STATE=ONLINE on orcl2
  
停掉监听及VIP资源
  
srvctl stop listener -n orcl1
  
srvctl stop vip -n orcl1 -f
  
停掉后,再次使用crsctl stat res命令查看资源状态
注:此步可以分节点操作,也可是两个节点同时操作,取决于停机时间。建议两个节点同时操作,否则的话,在最后割接完成后,很可能会出现两个节点连接数不均衡的问题。另外,为了避免引起不必要的麻烦,且停机时间充足的情况下,建议(非必须)停掉数据库:
  
$ srvctl stop instance -d orcl -n orcl1
  
$ srvctl stop instance -d orcl -n orcl2
  
备份profile.xml文件
在两个点节点中,以grid用户执行:
  
cd /u01/app/grid/11.2.0/dbhome_1/gpnp/racdb1/profiles/peer
  
cp -p profile.xml profile.xml.bak
  
停掉并禁用CRS
在两个节点上以root用户停掉crs,并disable掉crs:
  
/u01/app/grid/11.2.0/dbhome_1/bin/crsctl stop  crs
  
/u01/app/grid/11.2.0/dbhome_1/bin/crsctl  disable crs
  
在操作系统上完成网络相关更改
完成操作系统上相关的网络更改,主要包括:
1、IP地址变更。
2、/etc/hosts文件变更:
/etc/hosts文件原内容:
  
[root@orcl1 ~]# cat /etc/hosts
  
127.0.0.1   localhost  localhost.localdomain localhost4 localhost4.localdomain4
  
::1         localhost localhost.localdomain  localhost6 localhost6.localdomain6
  
  
#public ip
  
192.168.133.104 orcl1
  
192.168.133.105 orcl2
  
  
#priv ip
  
10.10.1.14 orcl1-priv
  
10.10.1.15 orcl2-priv
  
  
#vip ip
  
192.168.133.114 orcl1-vip
  
192.168.133.115 orcl2-vip
  #scan ip
  
192.168.133.106 orcl-scan
  
/etc/hosts修改后内容:
  [root@orcl1 ~]# cat /etc/hosts
  127.0.0.1   localhost localhost.localdomain localhost4  localhost4.localdomain4
  ::1         localhost localhost.localdomain  localhost6 localhost6.localdomain6
  
  #public ip
  192.168.133.154 orcl1
  192.168.133.155 orcl2
  
  #priv ip
  10.10.1.14 orcl1-priv
  10.10.1.15 orcl2-priv
  
  #vip ip
  192.168.133.164 orcl1-vip
  192.168.133.165 orcl2-vip
  
  #scan ip
  
192.168.133.166 orcl-scan
  
在确保主机上已经完成所有的网络相关的更改操作,并且新的私有网络已经运行正常时,启用并启动CRS。
修改VIP设置并启动VIP及监听资源
在任意节点上以root用户执行:
  
[root@orcl1 ~]# /u01/app/grid/11.2.0/dbhome_1/bin/srvctl  modify nodeapps -n orcl1 -A racdb1-vip/255.255.255.0
  
在两个节点上进行检查,看是否可以看到新的VIP设置:
  
[grid@orcl1 ~]$ srvctl config nodeapps -a
  
Network exists: 1/192.168.133.0/255.255.255.0/ens33, type  static
  
VIP exists:  /orcl1-vip/192.168.133.164/192.168.133.0/255.255.255.0/ens33, hosting node  orcl1
  
VIP exists:  /orcl2-vip/192.168.133.165/192.168.133.0/255.255.255.0/ens33, hosting node  orcl2
  
在任意节点上以grid用户启动VIP及监听资源:
  
$ srvctl start vip -n orcl1
  
$ srvctl start vip -n orcl2
  
$ srvctl start listener -n orcl1
  
$ srvctl start listener -n orcl2
  
如果此前停掉了数据库,则此时也启动数据库,也是以grid用户执行:
  
$ srvctl start instance -d orcl -n orcl1
  
$ srvctl start instance -d orcl -n orcl2
  
更改SCAN IP地址
1.先修改两个节点的/etc/hosts文件中的scan ip信息
  
#scan ip
  
192.168.133.106 orcl-scan
  
改为
  
#scan ip
  
192.168.133.166 orcl-scan
  
2查看当前SCAN配置:
  
[grid@orcl1 ~]$ srvctl config scan
  
SCAN name: orcl-scan, Network: 1/192.168.133.0/255.255.255.0/ens33
  
SCAN VIP name: scan1, IP: /orcl-scan/192.168.133.106
  
3停掉SCAN 监听:
  
[grid@orcl1 ~]$ srvctl stop  scan_listener
  
4停掉SCAN IP资源,也就是停掉SCAN IP:
  
[grid@orcl1 ~]$ srvctl stop scan
  
5以root用户修改scan设置:
  
[root@orcl1 ~]# /u01/app/grid/11.2.0/dbhome_1/bin/srvctl  modify scan -n orcl-scan
  
6以grid用户在两个节点上执行命令,看是否修改成功:
  
[grid@orcl1  ~]$ srvctl config scan
  
SCAN  name: orcl-scan, Network: 1/192.168.133.0/255.255.255.0/ens33
  
SCAN  VIP name: scan1, IP: /orcl-scan/192.168.133.166
  
7.启动scan ip资源及scan监听:
  
[grid@orcl1  ~]$ srvctl start scan
  
[grid@orcl1  ~]$ srvctl start scan_listener
  
8.查看scan ip及scan 监听资源状态:
  
[grid@orcl1  ~]$ srvctl status scan
  
SCAN  VIP scan1 is enabled
  
SCAN  VIP scan1 is running on node orcl2
  
  
[grid@orcl1  ~]$ srvctl status scan_listener
  
SCAN  Listener LISTENER_SCAN1 is enabled
  
SCAN  listener LISTENER_SCAN1 is running on node orcl2
  
  
[grid@orcl1  ~]$ crsctl stat res ora.scan1.vip ora.LISTENER_SCAN1.lsnr
  
NAME=ora.LISTENER_SCAN1.lsnr
  
TYPE=ora.scan_listener.type
  
TARGET=ONLINE
  
STATE=ONLINE  on orcl2
  
  
NAME=ora.scan1.vip
  
TYPE=ora.scan_vip.type
  
TARGET=ONLINE
  
STATE=ONLINE  on orcl2
  
启用并启动CRS
以root用户在两个节点上启用并启动crs:
  
/u01/app/grid/11.2.0/dbhome_1/bin/crsctl enable crs
  
/u01/app/grid/11.2.0/dbhome_1/bin/crsctl start crs
  
注:此时,可以分节点执行,在一个节点的CRS启动成功后,再启动另一个节点的CRS。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

QQ|手机版|小黑屋|重庆思庄Oracle、Redhat认证学习论坛 ( 渝ICP备12004239号-4 )

GMT+8, 2020-2-28 22:09 , Processed in 0.125416 second(s), 21 queries .

重庆思庄学习中心论坛-重庆思庄科技有限公司论坛

© 2001-2020

快速回复 返回顶部 返回列表