#uname -a
HP-UX xxxx B.11.31 U ia64
磁盘阵列通常允许调整 LUN 的大小,如果增加 LUN 的大小,请执行以下步骤将附加空间合并到卷组中:
1、按照阵列说明增加 LUN 的大小。
2、运行 vgmodify 检测任何物理卷大小更改。还将报告卷组能否使用所有空间。
3、如果 vgmodify 报告,每个物理卷的最大物理盘区数 (max_pe) 太小,无法容纳新增的空
间,请使用带 -t 和 -n 选项的 vgmodify 确定 max_pe 的新值,如“修改卷组参数”
4、按照新的设置运行带 -r 选项的 vgmodify 检查这些值。
5、停用卷组。
6、提交 max_pe 的任何新值,运行不带 -r 选项的 vgmodify 更新物理卷信息。
7、激活卷组。运行 vgdisplay 和 pvdisplay 命令验证增加的空间是否可用。
详细实施步骤:
一步:备份VG配置信息
#vgcfgbackup -f /home/vg01_bak vg01
二步:选择合适的max_pv与max_pe
做这一步的原因是VG默认的Max PE per PV=5960,而PE Size (Mbytes) =64,并不能满足LUN扩展后PV的容量需求
需要调整VG属性值。
#vgmodify -v -r vg01 #查看vg01当前的VG配置信息
#vgmodify -t vg01 #查看可选的卷组配置信息,会看到一张max_pv,max_pe与Disk_size的对照表
#vgmodify -t -v -n vg01 #与上条命令类似,会生成更大磁盘容量的max_pv,max_pe与Disk_size的对照表
找到一个合适的值,主要是确定max_pv数与每PV支持的max_pe数组合能满足扩展后物理卷要求
从列表可以看出当max_pv<14都可以满足需求,这里选择max_pv=12,max_pe=16124
三步:修改VG的属性
#vgmodify -p 12 -e 16124 -r vg01 #先预览下调整后的效果
#fuser -cu /Oracle/data #列出正在使用/oracle/data的进程信息
#fuser -ku /oracle/data #kill掉正使用/oracle/data的进程
#umount /oracle/data #卸载文件系统(不是必须的)
#vgchange -a -n vg01 #关闭vg01
#vgmodify -p 12 -e 16124 vg01 #修改vg01属性值
#vgchange -a -y vg01 #激活vg01
四步:扩展文件系统
#extendfs -L 819200 /dev/vg01/lvo1 #扩展文件系统到819200M
五步:挂载文件系统
#mount /dev/vg01/lvo1 /oracle/data
六步:查看调整后的VG
#vgdisplay -v vg01
实施过程的几个疑点
问一:调整LUN大小后HUUX能否立即识别,怎么确认?
回答:LUN调整后,HPUX操作系统可以立即识别,可使用以下命令检查:diskinfo /dev/rdisk/disk9
问二:调整LUN大小后,对应的PV是否会自动增加容量?
回答:主要看PV所在卷组属性,如果Max PE per PV*PE Size > 扩展后PV则可以识别到,反之则识别不到,需要调整VG属性值
将第二步与第四步的一些输出信息贴出来做个参考:
# vgmodify -v -r vg01
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf
Current Volume Group settings:
Max LV 255
Max PV 12
Max PE per PV 16124
PE Size (Mbytes) 64
VGRA Size (Kbytes) 1600
An update to the Volume Group is NOT required
# vgmodify -t vg01
Current Volume Group settings:
Max LV 255
Max PV 12
Max PE per PV 16124
PE Size (Mbytes) 64
VGRA Size (Kbytes) 1600
VGRA space (Kbytes) without PE renumbering 1600
VGRA space (Kbytes) PE renumbering lower 65536
Volume Group optimized settings (no PEs renumbered):
max_pv(-p) max_pe(-e) Disk size (Mb)
2 65535 4194241
3 65020 4161281
4 48636 3112705
5 38908 2490113
6 32508 2080513
7 27644 1769217
8 24316 1556225
9 21500 1376001
10 19452 1244929
11 17660 1130241
12 16124 1031937
13 14844 950017
14 13820 884481
15 12796 818945
16 12028 769793
17 11260 720641
18 10748 687873
19 10236 655105
20 9724 622337
21 9212 589569
# vgmodify -t -v -n vg01
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf
Current Volume Group settings:
Max LV 255
Max PV 12
Max PE per PV 16124
PE Size (Mbytes) 64
VGRA Size (Kbytes) 1600
VGRA space (Kbytes) on Physical Volumes with extents in use:
PV current -n
/dev/rdisk/disk9 1600 65536
/dev/rdisk/disk24 1600 65536
Summary 1600 65536
Physical Extent zero is not free on all PVs. You will not achieve these
values until the first extent is made free (see pvmove(1M)) on all the
following disks:
/dev/rdisk/disk9
/dev/rdisk/disk24
Volume Group optimized settings (PEs renumbered lower):
max_pv(-p) max_pe(-e) Disk size (Mb)
123 65535 4194304
124 65532 4194112
125 65020 4161344
126 64508 4128576
127 63996 4095808
128 63484 4063040
129 62972 4030272
130 62460 3997504
-- ----- -------
252 32252 2064192
254 31996 2047808
255 31740 2031424
# vgdisplay -v vg01
--- Volume groups ---
VG Name /dev/vg01
VG Write Access read/write
VG Status available
Max LV 255
Cur LV 1
Open LV 1
Max PV 12
Cur PV 2
Act PV 2
Max PE per PV 16124
VGDA 4
PE Size (Mbytes) 64
Total PE 20839
Alloc PE 12800
Free PE 8039
Total PVG 0
Total Spare PVs 0
Total Spare PVs in use 0
VG Version 1.0
VG Max Size 12093g
VG Max Extents 193488
--- Logical volumes ---
LV Name /dev/vg01/lvol1
LV Status available/syncd
LV Size (Mbytes) 819200
Current LE 12800
Allocated PE 12800
Used PV 2
--- Physical volumes ---
PV Name /dev/disk/disk9
PV Status available
Total PE 8940
Free PE 0
Autoswitch On
Proactive Polling On
PV Name /dev/disk/disk24
PV Status available
Total PE 11899
Free PE 8039
Autoswitch On