[RAC-2] RHEL4 + oracle 10g + Raw Device

Clusterware 설치 및 패치
[RAC-2]

연계 포스팅

과정


1. 필요파일 복사 및 압축 풀기 
cvuqdisk rpm 설치
설치환경검사(옵션)
시간동기화(root, node1 & node2)
Clusterware 설치 
- 시작화면
- 인벤토리 디렉토리 및 인증서 지정
- 홈 세부 정보 지정
- 제품 체크
- 제품별 필요조건 검사
- 클러스터 구성 지정
- 네트워크 인터페이스 용도 지정
- OCR 위치 지정
- 선호 디스크 위치 지정
- 설치 중 스크립트 실행
- 구성요소 실패
- 설치
- 설치 종료
node2에서 vipca 실행
Clusterware 패치 

부록
vipca



필요파일 복사 및 압축 풀기(oracle)
10201_clusterware_linux32.zip (node1, node2 다 복사)
10201_database_linux32.zip (node1)
p8202632_10205_Linux.zip (node1)

/home/oracle에 unzip  할 디렉토리를 하나 만든다.
$ mkdir /home/oracle/install

/home/oracle/install 에 위 3개 파일을 winscp 툴을 이용하여 복사한다.
$ unzip 10201_clusterware_linux32.zip 

$ unzip 10201_database_linux32.zip 

$ unzip p8202632_10205_Linux.zip 

10201_clusterware_linux32.zip  파일만 node2로 복사하고 위와 같이 디렉토리를 만든후에 압축을 푼다.


cvuqdisk rpm 설치(root, node1, node2)
cvuqdisk-1.0.1-1.rpm 파일은 10201_clusterware_linux32.zip 파일 안에 들어있다. 이미 압축을 해제 하였으므로 디록토리로 이동후에 설치한다.
node2에서도 동일하게 작업한다.
# export export CVUQDISK_GRP=dba
# /home/oracle/install/clusterware/rpm 
# rpm -Uvh cvuqdisk-1.0.1-1.rpm 

Preparing...                ########################################### [100%]

   1:cvuqdisk               ########################################### [100%]


 
Clusterware 설치 전 환경 검사(oracle, node2 & node2)
이 과정은 필수과정은 아니고 단순 검사만 하는 옵션과정이다.
vip, ointall, rpm 관련 에러 무시한다.

$ cd /home/oracle/install/clusterware/cluvfy 

$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose 

$ ./runcluvfy.sh stage -post hwos -n rac1,rac2 -verbose


시간동기화(root, node1 & node2)
 : node 1과 node 2 의 시간 동기화 명령어이다. 두 노드의 시간이 동일해야 Clusterware 가 설치되고 올바르게 동작한다. 

# rdate -s time.bora.net 
 

?

clusterware 설치( node1 )
clusterware 의 설치는 node1에서만 진행하면 된다. 


시작화면

다음



인벤토리 디렉토리 및 인증서 지정 

/home/oracle/oraInventory > dba > 다음



홈 세부 정보 지정
이 부부에서 주의하여 설정한다. 기본값이 db로 되어있다.

이름 : OraCrs10g_home > 경로 : /home/oracle/product/10g/crs > 다음



제품 체크

물리적 메모리 warning 은 체크 > 다음



제품별 필요조건 검사
vmware 를 생성할때 메모리를 1024 이상으로 설정하면 에러가 발생하지 않는다

사용자 체크 > 다음




클러스터 구성 지정 (Cluster Configuration)
클러스터에서 관리할 노드를 입력한다.
node2의 public IP, private IP, Virtual IP를 입력하여 추가한다.

add > public IP입력 > private IP입력 > Virtual IP입력 > OK > Next



* use Cluster configuration File 은 노드가 많아서 일일이 추가하기 힘들경우 미리 작성한 파일을 읽어오기 위한 버튼이다.


네트워크 인터페이스 용도 지정
일반적으로 eth0과 eth1두개가 모두 표시되는데, 이 그림과 같이 하나만 표시되도 무시한다.

eth0 선택 > Edit > public 선택 > OK > Next





OCR(Oracle Cluster Registry) 위치 지정

External Redundancy (외부 중복성) > /dev/raw/raw1 > Next





선호 디스크 위치 지정

External Redundancy 선택 > /dev/raw/raw2 > Next





설치 도중 스크립트(root, node1 & node2)
선호 디스크 설정을 마치면 요약화면이 표시되고 바로 install 버튼을 클릭하면 설치화면이 표시된다.
이 설치가 끝날쯤에 스크립트를 실행하라고 표시하는데 순서에 민감하니 동시에 하지 말고 순서를 잘 지킨다.

node1 
/home/oracle/oraInventory/orainstRoot.sh  
node2 
/home/oracle/oraInventory/orainstRoot.sh   
node1 
/home/oracle/product/10g/crs/root.sh 
node2 
/home/oracle/product/10g/crs/root.sh   

확인 



구성요소 실패
이렇게 구성요소가 실패한다면 node2에서 vipca 를 실행해야 한다. vipca를 실행하고 Retry(재시도)하면 성공한다.

vipca  실행(에러발생시) > Retry > Next 



설치
요약 페이지가 나오고 Install 버튼을 누르면 패치 설치가 진행된다.

설치


설치 중 'null' 에러가 표시되도 일단 무시하고 진행한다.



설치 종료(root, node1 & node2)
데몬종료 명령과 스크립트를 실행하라는 메시지가 표시되며 설치가 완료 된다.
모든 노드에서 실행하는데 순서는 아래와 같다.

node1
# /home/oracle/product/10g/crs/bin/crsctl stop crs
# /home/oracle/product/10g/crs/install/root102.sh

node2
# /home/oracle/product/10g/crs/bin/crsctl stop crs
/home/oracle/product/10g/crs/install/root102.sh 


위의 과정이 끝나면 CRS 상태를 확인한다.(oracle)

$ crs_stat -t

Name           Type           Target    State     Host
------------------------------------------------------------
ora....C1.lsnr application    ONLINE    ONLINE    rac1
ora.rac1.gsd   application    ONLINE    ONLINE    rac1
ora.rac1.ons   application    ONLINE    ONLINE    rac1
ora.rac1.vip   application    ONLINE    ONLINE    rac1
ora....C2.lsnr application    ONLINE    ONLINE    rac2
ora.rac2.gsd   application    ONLINE    ONLINE    rac2
ora.rac2.ons   application    ONLINE    ONLINE    rac2
ora.rac2.vip   application    ONLINE    ONLINE    rac2 








부록


vipca 실행 (oracle > root, node2)
이 과정은 Clusterware 구성요소 구성중 오류가 발생하면 하는 단계이다. 이 단계가 끝나면 다시 구성요소 검사 화면으로 가서 다음으로 넘어간다.

주의할점은 이 과정을 oracle로 하면 권한이 없어서 안되고 root로 해야 하는데 root는 환경변수등을 설정하지 않았기 때문에 oracle로 로그인된 상태에서 root로 사용자 변환을 해서 실행해야 된다.

Oracle로 로그인한 상태
$ su
Password : root 패스워드 입력
# vipca 



네트워크 인터페이스 선택

eth0 선택 > 다음



vip Alias Name 입력
IP Alias Name 에 이름만 적으면 자동으로 아이피가 표시된다. 

rac2-vip 입력 > 다음


다음을 누르면 요약페이지가 표시되고 진행 대화상자가 표시된다. 이때 설정을 완벽하게 했음에도 불구하고 "resource를 시작할 수 없으니 로그를 확인하라" 는 메시지가 표시되는 경우 시간을 두고 재시도 한다.

구성요소 검사 과정으로
 이동하기



# /home/oracle/product/10g/db/root.sh

Running Oracle 10g root.sh script...


The following environment variables are set as:

    ORACLE_OWNER= oracle

    ORACLE_HOME=  /home/oracle/product/10g/db


Enter the full pathname of the local bin directory: [/usr/local/bin]:

The file "dbhome" already exists in /usr/local/bin.  Overwrite it? (y/n)

[n]: y

   Copying dbhome to /usr/local/bin ...

The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)

[n]: y

   Copying oraenv to /usr/local/bin ...

The file "coraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)

[n]: y

   Copying coraenv to /usr/local/bin ...


Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.