Instalação e configuração do Clusterware e RDBMS em Oracle Database 12c R2 (12.2.0.1.0) com Alta Disponibilidade (HA)

Por Y V Ravi Kumar Oracle ACE director, Rodrigo Mufalani Oracle ACE, Konstantin Korekovski
Publicado em Abril 2018

Revisado por Lorenzo Mota, Marcus Vinicius Pedro



Introdução:


Agora que o Oracle lançou o Oracle Database 12cR2 para nós, caros, que nos abstivemos da nuvem, podemos finalmente fazer o processo de instalação e configuração de software do Clusterware e RDBMS. Neste artigo nós iremos usar processo de instalação pela GUI (Oracle Universal Installer) do Grid e RDBMS e também iremos mostrar as novas opções que estão disponíveis para o usuário durante o processo de instalação. Iremos também recomendar sobre as considerações de espaço requerido para instalar o Grid Infrastructure Repository Database, anteriormente conhecido como Management DB.   


Configuração do ambiente


After Install:
Operating System:                           Oracle Enterprise Linux 6.8 (Santiago)
Database:                                        Oracle RDBMS 12.2.0.1.0
Oracle Clusterware:                         Oracle Clusterware 12.2.0.1.0
Hostname:                                        tstldb101,tstldb102
IP address:                                      192.168.0.61, 192.168.0.62



Instalação do Clusterware


Crie previamente o diretório home onde instalaremos Grid em todos os nodes

[oracle@tstldb101 ~]$ mkdir -p /u01/app/12.2.0/grid
[oracle@tstldb101 ~]$ cp linuxx64_12201_grid_home.zip /u01/app/12.2.0/grid
[oracle@tstldb101 ~]$ ssh tstldb102 "mkdir -p /u01/app/12.2.0/grid"


Instale o Oracle Database 12cR2 Preinstall RPM em todos os servidores (nodes)

[root@tstldb101 ~]# yum install oracle-database-server-12cR2-preinstall.x86_64 –y


Descompacte o zip que contém a instalação do Grid

Descompacte os arquivos no próprio diretório onde ele será instalado. O processo de instalação do Grid mudou em relação as versões anteriores é uma imagem, então o instalador não lhe dá a opção de escolher o caminho onde irá instalar.

[oracle@tstldb101 grid]$ ls -l
total 2924504
-rw-r--r-- 1 oracle oinstall 2994687209 Mar  7 15:23 linuxx64_12201_grid_home.zip
[oracle@tstldb101 grid]$ pwd
/u01/app/12.2.0/grid 

[oracle@tstldb101 grid]$ unzip linuxx64_12201_grid_home.zip
[oracle@tstldb101 grid]$ ls -l |grep .sh
-rwxr-x---  1 oracle oinstall       5395 Jul 21  2016 gridSetup.sh
-rwx------  1 oracle oinstall        603 Jan 26 11:12 root.sh
-rwx------  1 oracle oinstall        612 Jan 26 11:12 rootupgrade.sh
-rwxr-x---  1 oracle oinstall        628 Sep  4  2015 runcluvfy.sh


Instale o pacote CVUQDISK RPM em todos os nodes

[oracle@tstldb101 grid]$ su root -c "rpm -Uvh /u01/app/12.2.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm "
Password:
Preparing...                ########################################### [100%]
   1:cvuqdisk               ########################################### [100%]
[oracle@tstldb101 grid]$ scp /u01/app/12.2.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm
tstldb102:/home/oracle/
cvuqdisk-1.0.10-1.rpm                                                                                                                                                            100% 8860     8.7KB/s   00:00

[oracle@tstldb101 grid]$ ssh tstldb102
Last login: Tue Mar  7 09:31:05 2017 from 192.168.0.199
[oracle@tstldb102 ~]$ su root -c "rpm -Uvh /home/oracle/cvuqdisk-1.0.10-1.rpm"
Password:
Preparing...                ########################################### [100%]
   1:cvuqdisk               ########################################### [100%]
[oracle@tstldb102 ~]$ exit
logout
Connection to tstldb102 closed.


Execute o script runcluvfy.sh

[oracle@tstldb101 grid]$ ./runcluvfy.sh stage -pre crsinst -n tstldb101,tstldb102 
-verbose > cluvfy_output.txt


Verifique as Falhas na saída no runcluvfy.sh

Cheque por qualquer falha que o utilitário de verificação do cluster (runcluvfy.sh) possa ter lhe alertado e determine se você pode ignorar ou corrigir. Por exemplo, se tiver falhas relacionadas a conectividade de IPV6 ou grupos de usuários de S.O que não irei utilizar porque meu ambiente não tem separação de roles. 

[oracle@tstldb101 grid]$ cat cluvfy_output.txt |grep FAIL
Verifying Swap Size ...FAILED (PRVF-7573)
Verifying Group Existence: asmadmin ...FAILED (PRVG-10461)
Verifying Group Existence: asmdba ...FAILED (PRVG-10461)
Verifying Group Membership: asmadmin ...FAILED (PRVG-10460)
Verifying Group Membership: asmdba ...FAILED (PRVG-10460)
Verifying Node Connectivity ...FAILED (PRVG-11067, PRVG-11095)
Verifying Swap Size ...FAILED
Verifying Group Existence: asmadmin ...FAILED
Verifying Group Existence: asmdba ...FAILED
Verifying Group Membership: asmadmin ...FAILED
Verifying Group Membership: asmdba ...FAILED
Verifying Node Connectivity ...FAILED


Execute o script gridSetup.sh

[oracle@tstldb101 grid]$ /home/oracle/grid/gridSetup.sh


Opções de Configuração

Escolha a opção “configure Oracle Grid Clusterware for a New Cluster”, visto que estamos criando um novo cluster.


Configuração do tipo de Cluster

Criar um Standalone cluster


Grid Plug and Play

Especifique o Cluster Name e o seu SCAN Hostname. No nosso exemplo, não estamos utilizando Grid Plug and Play.


Informações dos Cluster Nodes

Clique no botão Add para adicionar um novo node, geralmente já está inserido o node ao qual iniciamos o processo de instalação.

Adicione o Public Hostname e o Virtual hostname para o novo node. O Clusterware agora permite adicionar um range de nodes se estiver construindo clusters com um grande número de servidores (nodes), isso é uma funcionalidade muito amigável e desejável para quem rodar em Cloud. Nós não estamos fazendo um cluster com LEAF nodes, então todos os nodes neste exemplo terão a atribuição (role) HUB.

Uma vez que você adicionou os detalhes dos outros nodes, clique em SSH Connectivity e garanta que haja equivalência SSH entre todos os nodes do seu cluster.


Especificando interfaces de rede

Especifique qual o propósito de cada interface de rede nos nodes de seu custer. É importante lembrar que cada interface de rede deve ter a mesma sub-rede e função em todos os nodes no cluster. Por exemplo, se eu tenho eth0, eth1, eth2 em ambos servidores tstldb101 e tstldb102. A interface eth0 não será usada pelo cluster em nenhum node, as interfaces eth1 e eth2 serão usadas pelo ASM e tráfego do interconnect (Private) nos dois servidores e a interface eth3 vai ser usada para rede pública.


Opções de Storage

Especifique se vai configurar ASM usando block devices ou em NFS para o seu cluster. O Oracle agora permite armazendar o OCR,VOTE e o MGMTDB (agora chamado de GIMR, Grid Infrastructure Management Repository) database em um NFS se você desejar. No nosso exemplo, Iremos usar block devices como storage.


Grid Infrastructure Management Repository

O Oracle agora permite separar o GIMR (previamente conhecido como MGMTDB) do seu digkgroup OCR e VOTE. Isso é especialmente importante no 12.2 porque a quantidade de espaço requerido para o GIMR aumentou consideravelmente. No 12.1 poderíamos colocar o OCR, VOTE files e o seu MGMTDB em um único diskgroup de mais ou menos 12GB. Não é mais esse o caso. Você agora precisa de 37712MB de espaço somente para o GIMR sozinho. Perante esses novos requisitos de espaço, Nós recomendamos fazer um diskgroup dedicado ao GIMR.


Criando ASM Diskgroup

Clique em “Change Discovery Path” para mudar o parâmetro ASM_DISKSTRING para você na sua instance ASM.

Uma vez que mudou o Discovery Path, estará habilitado a ver todos os discos que criou previamente com a ASMLIB. Tome nota sobre o fato que agora o novo default para Allocation Unit do instalador é de 4MB ao oposto de 1MB como era em versões anteriores. Nós também mudamos o nível de redundância para o diskgroup para EXTERNAL que significa que não teremos qualquer tipo de mirror acontecendo dentro do ASM. O tamanho requerido pelo OCR e VOTING não mudou muito desde o 12.1 ou até mesmo o 11.2, você somente precisa de 6GB (3 discos de 2GB cada) para armazenar esses arquivos.


GIMR Data Diskgroup

Garanta que você tenha espaço suficiente para criar o MGMT diskgroup que irá armazenar o seu GIMR. A razão pela qual os requisitos de armazenamento de dados do seu GIMR é tão maior do que era previamente requerido para o  MGMTDB no 12.1 é porque o GIMR diskgroup também irá armazenar os backups do GIMR database. Na versão 12.1, o MGMTDB era em modo NOARCHIVELOG e não tinha backups. Esta é uma grande melhora no recuperabilidade do 12.2, mas infelizmente requer mais alocação de espaço de sua parte.

Exemplos do alerta de espaço insuficiente

Exemplo de pegar o tamanho correto do MGMT diskgroup

Note que estou usando External Redundancy para o nosso diskgroup. Se você optar pelo uso Normal irá precisar do dobro de espaço (75424 MB) ou High Redundancy então o triplo (113136 MB) do espaço alocado para criar este diskgroup.


Especifique a senha para o ASM

Você precisará criar um password file para as sessões remotas logarem na instance ASM como SYSASM. O SYS é usado para tarefas administrativas enquanto que o ASMSNMP é usado para monitoramento. Para o nosso cluster de testes, estamos optando pela opção menos segura usando a mesma conta SYS para as duas funções.


Suporte a falha de isolamento

Escolha a opção não use o IPMI, conforme demostrado abaixo:


Opções de Gerenciamento

Se você tem instalado o OEM no seu site, este pode ser a hora de especificar os detalhes para que o cluster criado seja monitorado desde o início.


Grupos Privilegiados de Sistema Operacional

É seguro aceitar os padrões dos grupos de Sistema Operacional quando seu ambiente não tem separação de roles. Você irá receber um alerta, que pode ignorar, se deixar o grupo DBA para OSASM, pode seguir em frente, clicando em YES.


Especifique a localização de instalação

Como dito anteriormente, o novo processo de instalação do Oracle 12.2, usa uma “imagem” e você não será capaz de mudar a localização de instalação de onde descompactou a mesma. Tenha certeza que está satisfeito com essa localização do software antes de prosseguir.


Configuração para a execução do root script

Isso é melhor do que solicitar as credenciais de root ou sudo para o seu SysAdmin. Se fornecer as credenciais aqui, o instalador automaticamente irá executar quaisquer scripts necessários para a instalação ser finalizada.


Execução do root.sh do Node-1:

[root@tstldb101 ~]# sh /u01/app/12.2.0/grid/root.sh
Performing root user operation.

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME= /u01/app/12.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Relinking oracle with rac_on option
Using configuration parameter file: /u01/grid/grid/crs/install/crsconfig_params
The log of current session can be found at:
  /u01/app/oracle/crsdata/tstldb101/crsconfig/rootcrs_tstldb101_2017-06-18_07-46-38AM.log
2017/06/18 07:46:41 CLSRSC-594: Executing installation step 1 of 19: 'SetupTFA'.
2017/06/18 07:46:41 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector.
2017/06/18 07:47:16 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer 
(TFA) Collector.
2017/06/18 07:47:16 CLSRSC-594: Executing installation step 2 of 19: 'ValidateEnv'.
2017/06/18 07:47:27 CLSRSC-363: User ignored prerequisites during installation
2017/06/18 07:47:27 CLSRSC-594: Executing installation step 3 of 19: 'CheckFirstNode'.
2017/06/18 07:47:30 CLSRSC-594: Executing installation step 4 of 19: 'GenSiteGUIDs'.
2017/06/18 07:47:31 CLSRSC-594: Executing installation step 5 of 19: 'SaveParamFile'.
2017/06/18 07:47:39 CLSRSC-594: Executing installation step 6 of 19: 'SetupOSD'.
2017/06/18 07:47:41 CLSRSC-594: Executing installation step 7 of 19: 'CheckCRSConfig'.
2017/06/18 07:47:41 CLSRSC-594: Executing installation step 8 of 19: 'SetupLocalGPNP'.
2017/06/18 07:48:20 CLSRSC-594: Executing installation step 9 of 19: 'ConfigOLR'.
2017/06/18 07:48:30 CLSRSC-594: Executing installation step 10 of 19: 'ConfigCHMOS'.
2017/06/18 07:48:30 CLSRSC-594: Executing installation step 11 of 19: 'CreateOHASD'.
2017/06/18 07:48:36 CLSRSC-594: Executing installation step 12 of 19: 'ConfigOHASD'.
2017/06/18 07:48:52 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf'
2017/06/18 07:49:15 CLSRSC-594: Executing installation step 13 of 19: 'InstallAFD'.
2017/06/18 07:49:35 CLSRSC-594: Executing installation step 14 of 19: 'InstallACFS'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed 
resources on 'tstldb101'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources 
on 'tstldb101' has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 07:50:19 CLSRSC-594: Executing installation step 15 of 19: 'InstallKA'.
2017/06/18 07:50:26 CLSRSC-594: Executing installation step 16 of 19: 'InitConfig'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources 
on 'tstldb101'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb101' 
has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
CRS-2672: Attempting to start 'ora.driver.afd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb101'
CRS-2676: Start of 'ora.driver.afd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb101'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb101'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb101'
CRS-2676: Start of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb101'
CRS-2676: Start of 'ora.diskmon' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb101' succeeded

Disk label(s) created successfully. Check /u01/app/oracle/cfgtoollogs/asmca/
asmca-170618AM075110.log for details.
Disk groups created successfully. Check /u01/app/oracle/cfgtoollogs/asmca/
asmca-170618AM075110.log for details.

2017/06/18 07:52:10 CLSRSC-482: Running command: '/u01/app/12.2.0/grid/bin/ocrconfig 
-upgrade oracle oinstall'
CRS-2672: Attempting to start 'ora.crf' on 'tstldb101'
CRS-2672: Attempting to start 'ora.storage' on 'tstldb101'
CRS-2676: Start of 'ora.storage' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.crf' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb101'
CRS-2676: Start of 'ora.crsd' on 'tstldb101' succeeded
CRS-4256: Updating the profile
Successful addition of voting disk 9d13880235f34fe5bfafdd34f60603f5.
Successfully replaced voting disk group with +DATA.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced

##  STATE    File Universal Id                File Name Disk group
--  -----    -----------------                --------- ---------
 1. ONLINE   9d13880235f34fe5bfafdd34f60603f5 (AFD:OCR_VOTE1) [OCR_VOTE]
Located 1 voting disk(s).

CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources 
on 'tstldb101'
CRS-2673: Attempting to stop 'ora.crsd' on 'tstldb101'
CRS-2677: Stop of 'ora.crsd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.storage' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.crf' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.gpnpd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.mdnsd' on 'tstldb101'
CRS-2677: Stop of 'ora.drivers.acfs' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.storage' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.asm' on 'tstldb101'
CRS-2677: Stop of 'ora.crf' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.asm' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'tstldb101'
CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.ctssd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.evmd' on 'tstldb101'
CRS-2677: Stop of 'ora.ctssd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.evmd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.cssd' on 'tstldb101'
CRS-2677: Stop of 'ora.cssd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.driver.afd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.gipcd' on 'tstldb101'
CRS-2677: Stop of 'ora.driver.afd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 
'tstldb101' has completed
CRS-4133: Oracle High Availability Services has been stopped.
2017/06/18 07:53:42 CLSRSC-594: Executing installation step 17 of 19: 'StartCluster'.
CRS-4123: Starting Oracle High Availability Services-managed resources
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb101'
CRS-2676: Start of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb101'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb101'
CRS-2676: Start of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb101'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb101'
CRS-2676: Start of 'ora.diskmon' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cluster_interconnect.haip' on 'tstldb101'
CRS-2672: Attempting to start 'ora.ctssd' on 'tstldb101'
CRS-2676: Start of 'ora.ctssd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cluster_interconnect.haip' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb101'
CRS-2676: Start of 'ora.asm' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.storage' on 'tstldb101'
CRS-2676: Start of 'ora.storage' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crf' on 'tstldb101'
CRS-2676: Start of 'ora.crf' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb101'
CRS-2676: Start of 'ora.crsd' on 'tstldb101' succeeded
CRS-6023: Starting Oracle Cluster Ready Services-managed resources
CRS-6017: Processing resource auto-start for servers: tstldb101
CRS-6016: Resource auto-start has completed for server tstldb101
CRS-6024: Completed start of Oracle Cluster Ready Services-managed resources
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 07:55:39 CLSRSC-343: Successfully started Oracle Clusterware stack
2017/06/18 07:55:39 CLSRSC-594: Executing installation step 18 of 19: 'ConfigNode'.
CRS-2672: Attempting to start 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb101'
CRS-2676: Start of 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb101'
CRS-2676: Start of 'ora.asm' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.DATA.dg' on 'tstldb101'
CRS-2676: Start of 'ora.DATA.dg' on 'tstldb101' succeeded
2017/06/18 07:58:49 CLSRSC-594: Executing installation step 19 of 19: 'PostConfig'.
2017/06/18 08:00:43 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ...succeeded
[root@tstldb101 ~]#


Execução do root.sh do Node-2:

[root@tstldb102 ~]# sh /u01/app/12.2.0/grid/root.sh
Performing root user operation.

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/12.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...

Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Relinking oracle with rac_on option
Using configuration parameter file: /u01/app/12.2.0/grid/crs/install/crsconfig_params
The log of current session can be found at:
  /u01/app/oracle/crsdata/tstldb102/crsconfig/rootcrs_tstldb102_2017-06-18_08-01-29AM.log
2017/06/18 08:01:32 CLSRSC-594: Executing installation step 1 of 19: 'SetupTFA'.
2017/06/18 08:01:32 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector.
2017/06/18 08:02:00 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer 
(TFA) Collector.
2017/06/18 08:02:00 CLSRSC-594: Executing installation step 2 of 19: 'ValidateEnv'.
2017/06/18 08:02:01 CLSRSC-363: User ignored prerequisites during installation
2017/06/18 08:02:01 CLSRSC-594: Executing installation step 3 of 19: 'CheckFirstNode'.
2017/06/18 08:02:02 CLSRSC-594: Executing installation step 4 of 19: 'GenSiteGUIDs'.
2017/06/18 08:02:03 CLSRSC-594: Executing installation step 5 of 19: 'SaveParamFile'.
2017/06/18 08:02:11 CLSRSC-594: Executing installation step 6 of 19: 'SetupOSD'.
2017/06/18 08:02:12 CLSRSC-594: Executing installation step 7 of 19: 'CheckCRSConfig'.
2017/06/18 08:02:12 CLSRSC-594: Executing installation step 8 of 19: 'SetupLocalGPNP'.
2017/06/18 08:02:14 CLSRSC-594: Executing installation step 9 of 19: 'ConfigOLR'.
2017/06/18 08:02:17 CLSRSC-594: Executing installation step 10 of 19: 'ConfigCHMOS'.
2017/06/18 08:02:17 CLSRSC-594: Executing installation step 11 of 19: 'CreateOHASD'.
2017/06/18 08:02:18 CLSRSC-594: Executing installation step 12 of 19: 'ConfigOHASD'.
2017/06/18 08:02:33 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf'
2017/06/18 08:02:49 CLSRSC-594: Executing installation step 13 of 19: 'InstallAFD'.
2017/06/18 08:03:00 CLSRSC-594: Executing installation step 14 of 19: 'InstallACFS'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources 
on 'tstldb102'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb102' 
has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 08:03:25 CLSRSC-594: Executing installation step 15 of 19: 'InstallKA'.
2017/06/18 08:03:26 CLSRSC-594: Executing installation step 16 of 19: 'InitConfig'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources 
on 'tstldb102'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb102' 
has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources 
on 'tstldb102'
CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'tstldb102'
CRS-2677: Stop of 'ora.drivers.acfs' on 'tstldb102' succeeded
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb102' 
has completed
CRS-4133: Oracle High Availability Services has been stopped.
2017/06/18 08:03:40 CLSRSC-594: Executing installation step 17 of 19: 'StartCluster'.
CRS-4123: Starting Oracle High Availability Services-managed resources
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb102'
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb102'
CRS-2676: Start of 'ora.mdnsd' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb102'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb102'
CRS-2676: Start of 'ora.gipcd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb102'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb102'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb102'
CRS-2676: Start of 'ora.diskmon' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cluster_interconnect.haip' on 'tstldb102'
CRS-2672: Attempting to start 'ora.ctssd' on 'tstldb102'
CRS-2676: Start of 'ora.ctssd' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.cluster_interconnect.haip' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb102'
CRS-2676: Start of 'ora.asm' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.storage' on 'tstldb102'
CRS-2676: Start of 'ora.storage' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.crf' on 'tstldb102'
CRS-2676: Start of 'ora.crf' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb102'
CRS-2676: Start of 'ora.crsd' on 'tstldb102' succeeded
CRS-6017: Processing resource auto-start for servers: tstldb102
CRS-2673: Attempting to stop 'ora.LISTENER_SCAN1.lsnr' on 'tstldb101'
CRS-2672: Attempting to start 'ora.net1.network' on 'tstldb102'
CRS-2672: Attempting to start 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb102'
CRS-2676: Start of 'ora.net1.network' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.ons' on 'tstldb102'
CRS-2677: Stop of 'ora.LISTENER_SCAN1.lsnr' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.scan1.vip' on 'tstldb101'
CRS-2677: Stop of 'ora.scan1.vip' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.scan1.vip' on 'tstldb102'
CRS-2676: Start of 'ora.scan1.vip' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.LISTENER_SCAN1.lsnr' on 'tstldb102'
CRS-2676: Start of 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb102'
CRS-2676: Start of 'ora.ons' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.LISTENER_SCAN1.lsnr' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.asm' on 'tstldb102' succeeded
CRS-6016: Resource auto-start has completed for server tstldb102
CRS-6024: Completed start of Oracle Cluster Ready Services-managed resources
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 08:05:53 CLSRSC-343: Successfully started Oracle Clusterware stack
2017/06/18 08:05:53 CLSRSC-594: Executing installation step 18 of 19: 'ConfigNode'.
2017/06/18 08:06:20 CLSRSC-594: Executing installation step 19 of 19: 'PostConfig'.
2017/06/18 08:07:11 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ...succeeded
[root@tstldb102 ~]#



Realização da checagem dos Pré-requisitos

O instalador pode alertar sobre Device Checks para o ASM. No nosso caso, os alertas foram mostrados porque o grupo que é dono dos devices no S.O em /dev/oracleasm/disks/ eram “oinstall” e ao invés de “dba”. Como o seu software owner (oracle) é parte do grupo OINSTALL, você não irá ter nenhum problema de permissão. O alerta de espaço de partição SWAP pode ser ignorado se está instalando em um servidor de testes, caso não, peça ao seu SysAdmin para adicionar mais espaço de swap para evitar problemas. Como estes servidores não esperam lidar com nenhum workload de produção, então não nos preocuparemos em adequar o tamanho da SWAP.

[oracle@tstldb101 tstldb101]$ id oracle
uid=54321(oracle) gid=54321(oinstall) groups=54321(oinstall),54322(dba)
[oracle@tstldb101 tstldb101]$ ll /dev/oracleasm/disks/
total 0
brw-rw---- 1 oracle oinstall 8, 209 Mar  7 20:30 DATA_01
brw-rw---- 1 oracle oinstall 8, 161 Mar  7 20:30 FRA_01
brw-rw---- 1 oracle oinstall 8,  65 Mar  7 20:30 MGMT_01
brw-rw---- 1 oracle oinstall 8, 129 Mar  7 20:30 OCR_VOTE_01
brw-rw---- 1 oracle oinstall 8,  49 Mar  7 20:30 OCR_VOTE_02
brw-rw---- 1 oracle oinstall 8, 177 Mar  7 20:30 OCR_VOTE_03
brw-rw---- 1 oracle oinstall 8, 145 Mar  7 20:30 REDO_01


Clique em IGNORE ALL uma vez que validou e pode prosseguir com a instalação agora que você ajustou o que precisava de atenção ou ignorou o que não é importante, como os itens mostrados acima.

Você irá ser perguntado sobre o fato de ignorar os alertas. Clique em “YES”.


Sumário

Clique em Save Response file e salve um response file para referencia ou uma futura automação do processo de instalação. Uma vez que você esteja pronto, clique em install.


Instalando o Produto

Aos 44% do processo de instalação, o instalador irá perguntar se você permite que ele use as credenciais de root que forneceu no passo “Root Script Execution Configuration”. Clique em yes para permitir que o instalador continue.

No final, uma vez que tudo foi instalado o CVU irá rodar novamente. Se você pulou qualquer pré-requisito permitiu qualquer erro antes da instalação, esse passo irá falhar. Como o CVU no final do processo de instalação alertou sobre as mesmas coisas que já haviam falhado antes. Você pode clicar no OK.




Instalação do Oracle 12c R2 RDBMS


Crie previamente os diretórios home para instalar o RDBMS em todos os nodes

[oracle@tstldb101 ~]$ mkdir -p /u01/app/oracle/product/12.2.0/dbhome_1
[oracle@tstldb101 ~]$ ssh tstldb102 "mkdir -p /u01/app/oracle/product/12.2.0/dbhome_1"
[oracle@tstldb101 ~]$ mv linuxx64_12201_
linuxx64_12201_database.zip   linuxx64_12201_grid_home.zip
[oracle@tstldb101 ~]$ mv linuxx64_12201_database.zip /u01/app/oracle/product/12.2.0/dbhome_1


Descompacte os binários do RDBMS

[oracle@tstldb101 ~]$ unzip linuxx64_12201_database.zip


Inicie o instalador

Diferente da home do Clusterware, o a escolha da home do Oracle database ainda pode ser feita assim como era no 11.2 ou 12.1 e ainda usa o runInstaller.

[oracle@tstldb101 ~]$ database/runInstaller


Configure as atualizações de segurança

Desmarque as atualizações de segurança. Você irá receber um alerta, basta clicar em “yes”.


Opção de Instalação

Marque a opção install Install database software only


Opções de instalação do Database

Escolha a opção Real Application Clusters Database, não se confunda com RAC One Database, que é um produto totalmente diferente.


Selecione a lista de nodes do seu cluster

Garanta que todos os nodes em que instalou o clusterware estão listados e marcados.


Selecione a versão de instalação (Enterprise ou Standard)

Escolha a opção que licenciou, como é um teste, vamos colocar a Enterprise Edition.


Especifique a localização do software

Como o instalador do database usa método do runInstaller ao oposto do que o método de imagem feito no clusterware, você pode escolher onde que instalar o RDBMS assim como era feito anteriormente no 11.2 ou 12.1.


Grupos privilegiados do Sistema Operacional

Selecione os OS groups que você quer associar com as várias roles disponíveis Oracle (role separation). Como este é um test server, estamos usando DBA OS group para todas as roles.


Checagem de Pré-requisitos

Garanta que você não deixou nenhum pré-requisito de fora da sua instalação. O tamanho do espaço de Swap pode ser ignorado, neste caso, pois esse banco não é um ambiente de produção.


Sumário

Salve um response file e faça um duplo cheque em todas as configurações para ver se está tudo correto.


Instlação do Produto

Clique na tela de resumo de instalação em Install.


Root Scripts

No final da instalação, você será perguntado sobre a execução do root.sh script, faça a execução do mesmo em todos os nodes do seu cluster. A ordem que irá rodar não importa para a RDBMS home.


TSTLDB101

[root@tstldb101 ~]# /u01/app/oracle/product/12.2.0/dbhome_1/root.sh
Performing root user operation.

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/oracle/product/12.2.0/dbhome_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.


TSTLDB102

[root@tstldb102 ~]# /u01/app/oracle/product/12.2.0/dbhome_1/root.sh
Performing root user operation.

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/oracle/product/12.2.0/dbhome_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
[root@tstldb102 ~]#


Clique em OK uma vez que você rodou o script em todos os nodes.


Final


Uma vez que finalizou a execução do root script e clicou em OK, você irá levado para a tela de saudação. Neste ponto o database software foi propriamente instalado nos seus servidores pertencentes ao cluster.



Conclusão:


Notamos que as novas opções para "Cluster Configuration" incluindo "Oracle Extended Cluster", adicionar um range de nodes em "Add cluster node configuration" e a opção de redundância de disco "Flex" além de High, Normal e External.



Y V Ravi Kumar é um Oracle ACE e Oracle Certified Master (OCM) com 18 anos de experiência em  instituições financeiras, serviços financeiros e seguros (BFSI) e atuou em diversos papeis como Senior Database Architect e Production DBA.  Ele também é OCP em Oracle 8i, 9i, 10g, 11g & 12c e Certificado em Golden Gate, RAC, Performance Tuning & Oracle Exadata. Ele continua motivando muitos DBAs e ajudando a Oracle Community publicando suas dicas /ideias/sugestões/soluções em seu blog. Ele escreveu 90+ artigos OTN sobre Oracle Exadata, Oracle RAC e Oracle GoldenGate para a OTN em Espanhol, OTN em Português e OTN em inglês e 19 artigos para a TOAD World, 2 Artigos para o UKOUG, 3 Artigos para OTech Magazine e 2 Artigos para a Redgate. Ele é membro do All India Oracle User Group (AIOUG) e frequente Oracle speaker in @NYOUG, @OTN, AIOUG, Sangam e IOUG. Ele desenha, projeta e implementa Core Banking System (CBS) Databases para o Central Banks em dois países – India e Mahe, Seychelles.
Ele é Co-Founder do OraWorld (www.oraworld.com). Leia mais sobre o seu perfil na LaserSoft

Rodrigo Mufalani é um DBA Sr. com mais de 10 anos de experiência, começou com o Oracle 8i, mas teve a oportunidade de dar suporte a Oracle 7.3.4 em diante. É especialista em banco de dados Oracle com foco principal em Performance & Tuning e RAC. É palestrante em eventos de Oracle como: OTN LAD TOUR e outros. Atualmente trabalha como consultor diversas empresas no segmento de variados ramos como: Educação, Saúde, Tecnologia, Seguros e etc. Foi o terceiro Oracle ACE a ser nomeado no Brasil e é OCP DBA nas versões 10g, 11g e 12c. Também é OCM na versão 11g do Oracle Database. Atualmente trabalha na Mufalani. Twitter @mufalani / blog www.mufalani.com.br/blog

Konstantin Kerekovski é um profissional Oracle com mais de 6 anos de experiência no ramo de serviços financeiros. Ele é membro do Independent Oracle User Group (IOUG) e do Suncoast Oracle User Group (SOUG). Ele tem trabalhado como Senior e Líder Database Administrator com suporte ao ramo de serviços financeiros. 
Ele é palestrante do IOUG Collaborate 2017 e do SOUG meetings em Tampa Bay. Ele é um expert em Oracle Real Application Cluster, ASM, Goldengate e Oracle 11g e 12c.

Este artigo foi revisto pela equipe de produtos Oracle e está em conformidade com as normas e práticas para o uso de produtos Oracle.