Revisado por Francisco Riccio
Introducción:
Mostraremos como realizamos el proceso de instalación y configuración del software de Clusterware y RDBMS en Oracle 12R2 en los sistemas on premise. En este artículo repasaremos el proceso de instalación de GUI del software de Grid que incluye Clusterware y ASM y del Software de Base de Datos. Mostraremos las nuevas opciones que están disponibles para el usuario durante el proceso de instalación. También revisaremos las consideraciones de espacio que son necesarias para configurar la base de datos del repositorio de infraestructura de Grid, conocida como Management DB.
Configuración del Ambiente
Después de la Instalación:
Sistema Operativo: Oracle Enterprise Linux 6.8 (Santiago)
Base de Datos: Oracle RDBMS 12.2.0.1.0
Oracle Grid: Oracle Grid Infrastructure 12.2.0.1.0
Hostname: tstldb101,tstldb102
Dirección IP: 192.168.0.61, 192.168.0.62
Pre-Instalación
Crear los home del software de GRID en todos los nodos y copiar software de instalación
[oracle@tstldb101 ~]$ mkdir -p /u01/app/12.2.0/grid
[oracle@tstldb101 ~]$ cp linuxx64_12201_grid_home.zip /u01/app/12.2.0/grid
[oracle@tstldb101 ~]$ ssh tstldb102 "mkdir -p /u01/app/12.2.0/grid"
Instalar el paquete "preinstall 12cR2" en todos los servidores
[root@tstldb101 ~]# yum install oracle-database-server-12cR2-preinstall.x86_64 –y
Descomprimir el Software de GRID
[oracle@tstldb101 grid]$ ls -l
total 2924504
-rw-r--r-- 1 oracle oinstall 2994687209 Mar 7 15:23 linuxx64_12201_grid_home.zip
[oracle@tstldb101 grid]$ pwd
/u01/app/12.2.0/grid
[oracle@tstldb101 grid]$ unzip linuxx64_12201_grid_home.zip
[oracle@tstldb101 grid]$ ls -l |grep .sh
-rwxr-x--- 1 oracle oinstall 5395 Jul 21 2016 gridSetup.sh
-rwx------ 1 oracle oinstall 603 Jan 26 11:12 root.sh
-rwx------ 1 oracle oinstall 612 Jan 26 11:12 rootupgrade.sh
-rwxr-x--- 1 oracle oinstall 628 Sep 4 2015 runcluvfy.sh
Instalar el paquete CVUQDISK en todos los nodos
[oracle@tstldb101 grid]$ su root -c "rpm -Uvh /u01/app/12.2.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm "
Password:
Preparing... ########################################### [100%]
1:cvuqdisk ########################################### [100%]
[oracle@tstldb101 grid]$ scp /u01/app/12.2.0/grid/cv/rpm/cvuqdisk-1.0.10-1.rpm
tstldb102:/home/oracle/
cvuqdisk-1.0.10-1.rpm
100% 8860 8.7KB/s 00:00
[oracle@tstldb101 grid]$ ssh tstldb102
Last login: Tue Mar 7 09:31:05 2017 from 192.168.0.199
[oracle@tstldb102 ~]$ su root -c "rpm -Uvh /home/oracle/cvuqdisk-1.0.10-1.rpm"
Password:
Preparing... ########################################### [100%]
1:cvuqdisk ########################################### [100%]
[oracle@tstldb102 ~]$ exit
logout
Connection to tstldb102 closed.
Ejecutar el script runcluvfy.sh
[oracle@tstldb101 grid]$ ./runcluvfy.sh stage -pre crsinst -n tstldb101,tstldb102
-verbose > cluvfy_output.txt
Verificar la salida del runcluvfy.sh
Verificar si hay alguna falla que el utilitario de verificación de cluster haya detectado y determinar si se soluciona o se puede ignorar y continuar. Por ejemplo, tenemos unas fallas respecto a la conectividad con IPV6 y a los grupos de Sistema Operativo pero los vamos a ignorar porque no vamos a usar IPV6 y tampoco separación de roles.
[oracle@tstldb101 grid]$ cat cluvfy_output.txt |grep FAIL
Verifying Swap Size ...FAILED (PRVF-7573)
Verifying Group Existence: asmadmin ...FAILED (PRVG-10461)
Verifying Group Existence: asmdba ...FAILED (PRVG-10461)
Verifying Group Membership: asmadmin ...FAILED (PRVG-10460)
Verifying Group Membership: asmdba ...FAILED (PRVG-10460)
Verifying Node Connectivity ...FAILED (PRVG-11067, PRVG-11095)
Verifying Swap Size ...FAILED
Verifying Group Existence: asmadmin ...FAILED
Verifying Group Existence: asmdba ...FAILED
Verifying Group Membership: asmadmin ...FAILED
Verifying Group Membership: asmdba ...FAILED
Verifying Node Connectivity ...FAILED
Comenzar la Instalación de la Infraestructura Grid
Ejecutar el script gridSetup.sh. Ya no se ejecuta con runInstaller como en versiones anteriores.
[oracle@tstldb101 grid]$ /home/oracle/grid/gridSetup.sh
Seleccionar la Opción de Configuración
Como en este ejemplo vamos a crear un nuevo cluster, elegimos la opción "Configure Oracle Grid Clusterware for a New Cluster".
Cluster Configuration
Seleccionamos "Standalone Cluster"
Grid Plug and Play
Especificamos en Cluster Name el nombre del Cluster y el nombre del SCAN. En este ejemplo no vamos a usar GNS.
Información del Nodo del Cluster
Clickear el boton "Add" para agregar un nuevo nodo.
Agregar Public Hostname y VIP Hostname para el nuevo nodo. Clusterware en esta versión permite agregar rangos de nodos para usar en caso de armar un cluster con gran número de servidores, esta funcionalidad es una gran ayuda en esos casos. En este cluster de ejemplo no tendremos nodos LEAF por eso a todos los nodos miembros del cluster le asignamos el rol HUB.
Aclaración: A partir de 12.2 los cluster se instalan como FLEX CLUSTER. Los nodos HUB tienen acceso directo al Storage Compartido, proveen servicio de Storage a uno o más nodos LEAF. Los nodos LEAF no tienen acceso directo al Storage Compartido, se deben conectar a un nodo HUB y requieren los datos a través de los nodos HUB. Los nodos HUB se usan típicamente para Cluster de Base de Datos. Se puede definir una configuración de cluster de nodos HUB sin nodos LEAF, pero no se pueden definir nodos LEAF sin tener un pool de nodos HUB.
Una vez agregados todos los nodos presionar el boton SSH Connectivity y verificar que la equivalencia SSH esta configurada entre todos los nodos del cluster.
Especificar el Uso de las Interfaces de Red
Es importante recordar que las interfaces deben estar igual nombradas en todos los nodos y deben pertenecer a la misma subred. Por ejemplo, Si tengo ETH0, ETH1, ETH2 y ETH3 en los servidores tstldb101 y tstldb102. En tstldb101, ETH0 no será usado y ETH1 y ETH2 serán para ASM en y para el tráfico de interconexión. Tengo que definir exactamente las mismas interfaces en igual forma en tstldb102, o sea en tstldb102 ETH0 no será usado y ETH1 y ETH2 serán para ASM en y para el tráfico de interconexión.
Información de Opción de Storage
Especificar si se configura el ASM en dispositivos de bloque (block devices) o en NFS. Oracle ahora permite almacenar OCR, VOTING DISK y la base de datos GIMR (en versión anterior se llamaba MGMTDB) en NFS. Para este ejemplo usamos dispositivos de bloques “block devices” porque tenemos las LUN directamente atachadas a los servidores.
Opción para la Base: Grid Infrastructure Management Repository
Oracle en esta versión permite separar la base de datos GIMR (previamente llamada MGMTDB) del diskgroup de OCR y VOTING. Esto es especialmente importante porque el espacio requerido para en 12.2 para esta base de datos GIMR ha incrementado muchísimo. En 12.1 se podía ubicar el OCR, los archivos VOTING y la base MGMTDB en un diskgroup de 12GB. Este no es el caso. Ahora se requiere 37712MB solamente para la base de datos GIMR. Por lo explicado, nosotros recomendamos crearle un diskgroup dedicado para GIMR.
Crear el Diskgroup de ASM para el OCR y VOTING DISK
En caso de que no aparezcan en la ventana correspondiente los discos disponibles, presionar el botón “Change Discovery Path” indicando el directorio donde encontrar los devices. Esta acción cambia el parámetro ASM_DISKSTRING de la instancia ASM.
Una vez cambiado el Discovery Path se verán los discos que se crearon previamente con asmlib. Prestar atención que la nueva Unidad de Alocación default es de 4MB (en versiones anteriores venía de 1MB). En este ejemplo cambiamos la redundancia a EXTERNAL lo que significa que la redundancia va a estar dada por el RAID de discos y no por redundancia de software de ASM. El tamaño que se necesita para el OCR y los archivos de VOTING no difiere mucho de versiones anteriores ni de 12.1 ni de 11.2, solamente se necesitan 6GB (3 discos de 2GB).
Diskgroup para GIMR
Vamos a crear un diskgroup MGMT para almacenar la base de datos GIMR. La razón por la cual la base de datos GIMR requiere mucho más espacio que MGMTDB en 12.1 es porque en el diskgroup de GIMR también almacena los backups de la base GIMR. En 12.1, MGMTDB estaba en modo NOARCHIVELOG y no tenía backups. Esto es una mejora de recuperabilidad de 12.2, aunque requiera más espacio.
Ejemplo de Advertencia de Espacio Insuficiente
Ejemplo de Selección Correcta de Discos para el Tamaño Requerido del diskgroup MGMT
Usaremos redundancia External en este diskgroup. Si vamos a usar redundancia Normal (mirror por Software ASM, 2 copias) o High (Mirror por Software ASM, 3 copias) se necesitan 75424 MB o 113136 MB respectivamente para crear este diskgroup.
Especificar la Contraseña de ASM
Se necesita crear una password de ASM para que se conecten los clientes como SYSASM en forma remota. El usuario SYS es usado para tareas administrativas mientras que ASMSNP es usado para monitoreo. En este ejemplo de TEST, usamos la misma password para ambas cuentas. Sin embargo esta opción es la menos segura, por lo que recomendamos usar diferentes passwords.
Soporte de Aislación de Fallas
No vamos a instalar IPMI
Especificar Opciones de Administración
Si tiene OEM instalado en su site, en este punto se especifican los detalles para que el cluster se register automaticamente en el OEM.
Grupos Privilegiados de Sistema Operativo
Si en su instalación no tiene separación de roles, puede especificar el grupo dba para OSASM y recibirá una advertencia que ese grupo es normalmente usado para otros roles como OSDBA u OSOPER.
Especificar la Ubicación de la Instalación
Verificar que está de acuerdo en instalar en el directorio default del Oracle Base, caso contrario especificar el directorio correspondiente. Una vez que empieza el proceso de instalación no se puede cambiar. En esta versión no se puede cambiar la ubicación del software, solo la del Oracle Base.
Configuración de Ejecución de Script de Root
Se deben ejecutar scripts como usuario root para finalizar la instalación. El instalador puede ejecutarlos automáticamente si se le configura la password de root o el usuario y password para usar el sudo. En nuestra instalación de ejemplo le ingresamos la password de root.
Ejecutar Verificación de Prerequisitos
El instalador puede dar unas advertencias que hay que revisar y decidir si se pueden ignorar o no. En nuestro ejemplo nos da una advertencia de Device Checks en ASM. La muestra porque el grupo dueño de los discos es /dev/oracleasm/disks/ es OINSTALL en vez de DBA. Como el dueño del software es oracle que es parte del grupo OINSTALL no hay ningún problema de permisos. También aparece una advertencia del espacio de SWAP que la vamos a ignorar porque es una instalación de prueba. En instalaciones reales recomendamos aumentar el area de SWAP al espacio requerido.
[oracle@tstldb101 tstldb101]$ id oracle
uid=54321(oracle) gid=54321(oinstall) groups=54321(oinstall),54322(dba)
[oracle@tstldb101 tstldb101]$ ll /dev/oracleasm/disks/
total 0
brw-rw---- 1 oracle oinstall 8, 209 Mar 7 20:30 DATA_01
brw-rw---- 1 oracle oinstall 8, 161 Mar 7 20:30 FRA_01
brw-rw---- 1 oracle oinstall 8, 65 Mar 7 20:30 MGMT_01
brw-rw---- 1 oracle oinstall 8, 129 Mar 7 20:30 OCR_VOTE_01
brw-rw---- 1 oracle oinstall 8, 49 Mar 7 20:30 OCR_VOTE_02
brw-rw---- 1 oracle oinstall 8, 177 Mar 7 20:30 OCR_VOTE_03
brw-rw---- 1 oracle oinstall 8, 145 Mar 7 20:30 REDO_01
En nuestro ejemplo Presionamos IGNORE ALL
Nos consulta en la ventana si estamos seguros de continuar. Presionamos YES.
Resúmen
Presionar el botón Save Response file para grabar un archive de si queremos replicar esta instalación en forma automática. Listos para instalar presionamos install.
Instalación del Producto
En el 44% del proceso de instalación , nos consulta si permitimos el uso de las credenciales de root para ejecutar los scripts. Presionar YES para permitir y continuar.
Ejecución de root.sh en Node-1:
[root@tstldb101 ~]# sh /u01/app/12.2.0/grid/root.sh
Performing root user operation.
The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME= /u01/app/12.2.0/grid
Enter the full pathname of the local bin directory: [/usr/local/bin]:
Copying dbhome to /usr/local/bin ...
Copying oraenv to /usr/local/bin ...
Copying coraenv to /usr/local/bin ...
Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Relinking oracle with rac_on option
Using configuration parameter file: /u01/grid/grid/crs/install/crsconfig_params
The log of current session can be found at:
/u01/app/oracle/crsdata/tstldb101/crsconfig/rootcrs_tstldb101_2017-06-18_07-46-38AM.log
2017/06/18 07:46:41 CLSRSC-594: Executing installation step 1 of 19: 'SetupTFA'.
2017/06/18 07:46:41 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector.
2017/06/18 07:47:16 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer
(TFA) Collector.
2017/06/18 07:47:16 CLSRSC-594: Executing installation step 2 of 19: 'ValidateEnv'.
2017/06/18 07:47:27 CLSRSC-363: User ignored prerequisites during installation
2017/06/18 07:47:27 CLSRSC-594: Executing installation step 3 of 19: 'CheckFirstNode'.
2017/06/18 07:47:30 CLSRSC-594: Executing installation step 4 of 19: 'GenSiteGUIDs'.
2017/06/18 07:47:31 CLSRSC-594: Executing installation step 5 of 19: 'SaveParamFile'.
2017/06/18 07:47:39 CLSRSC-594: Executing installation step 6 of 19: 'SetupOSD'.
2017/06/18 07:47:41 CLSRSC-594: Executing installation step 7 of 19: 'CheckCRSConfig'.
2017/06/18 07:47:41 CLSRSC-594: Executing installation step 8 of 19: 'SetupLocalGPNP'.
2017/06/18 07:48:20 CLSRSC-594: Executing installation step 9 of 19: 'ConfigOLR'.
2017/06/18 07:48:30 CLSRSC-594: Executing installation step 10 of 19: 'ConfigCHMOS'.
2017/06/18 07:48:30 CLSRSC-594: Executing installation step 11 of 19: 'CreateOHASD'.
2017/06/18 07:48:36 CLSRSC-594: Executing installation step 12 of 19: 'ConfigOHASD'.
2017/06/18 07:48:52 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf'
2017/06/18 07:49:15 CLSRSC-594: Executing installation step 13 of 19: 'InstallAFD'.
2017/06/18 07:49:35 CLSRSC-594: Executing installation step 14 of 19: 'InstallACFS'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb101'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb101'
has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 07:50:19 CLSRSC-594: Executing installation step 15 of 19: 'InstallKA'.
2017/06/18 07:50:26 CLSRSC-594: Executing installation step 16 of 19: 'InitConfig'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb101'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'tstldb101'
has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
CRS-2672: Attempting to start 'ora.driver.afd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb101'
CRS-2676: Start of 'ora.driver.afd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb101'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb101'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb101'
CRS-2676: Start of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb101'
CRS-2676: Start of 'ora.diskmon' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb101' succeeded
Disk label(s) created successfully.
Check /u01/app/oracle/cfgtoollogs/asmca/asmca-170618AM075110.log for details.
Disk groups created successfully.
Check /u01/app/oracle/cfgtoollogs/asmca/asmca-170618AM075110.log for details.
2017/06/18 07:52:10 CLSRSC-482: Running command: '/u01/app/12.2.0/grid/bin/ocrconfig
-upgrade oracle oinstall'
CRS-2672: Attempting to start 'ora.crf' on 'tstldb101'
CRS-2672: Attempting to start 'ora.storage' on 'tstldb101'
CRS-2676: Start of 'ora.storage' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.crf' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb101'
CRS-2676: Start of 'ora.crsd' on 'tstldb101' succeeded
CRS-4256: Updating the profile
Successful addition of voting disk 9d13880235f34fe5bfafdd34f60603f5.
Successfully replaced voting disk group with +DATA.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
## STATE File Universal Id File Name Disk group
-- ----- ----------------- --------- ---------
1. ONLINE 9d13880235f34fe5bfafdd34f60603f5 (AFD:OCR_VOTE1) [OCR_VOTE]
Located 1 voting disk(s).
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb101'
CRS-2673: Attempting to stop 'ora.crsd' on 'tstldb101'
CRS-2677: Stop of 'ora.crsd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.storage' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.crf' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.gpnpd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.mdnsd' on 'tstldb101'
CRS-2677: Stop of 'ora.drivers.acfs' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.storage' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.asm' on 'tstldb101'
CRS-2677: Stop of 'ora.crf' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.asm' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'tstldb101'
CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.ctssd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.evmd' on 'tstldb101'
CRS-2677: Stop of 'ora.ctssd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.evmd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.cssd' on 'tstldb101'
CRS-2677: Stop of 'ora.cssd' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.driver.afd' on 'tstldb101'
CRS-2673: Attempting to stop 'ora.gipcd' on 'tstldb101'
CRS-2677: Stop of 'ora.driver.afd' on 'tstldb101' succeeded
CRS-2677: Stop of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2793: Shutdown of Oracle High Availability Services-managed resources
on 'tstldb101' has completed
CRS-4133: Oracle High Availability Services has been stopped.
2017/06/18 07:53:42 CLSRSC-594: Executing installation step 17 of 19: 'StartCluster'.
CRS-4123: Starting Oracle High Availability Services-managed resources
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb101'
CRS-2676: Start of 'ora.mdnsd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb101'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb101'
CRS-2676: Start of 'ora.gipcd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb101'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb101'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb101'
CRS-2676: Start of 'ora.diskmon' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.cluster_interconnect.haip' on 'tstldb101'
CRS-2672: Attempting to start 'ora.ctssd' on 'tstldb101'
CRS-2676: Start of 'ora.ctssd' on 'tstldb101' succeeded
CRS-2676: Start of 'ora.cluster_interconnect.haip' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb101'
CRS-2676: Start of 'ora.asm' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.storage' on 'tstldb101'
CRS-2676: Start of 'ora.storage' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crf' on 'tstldb101'
CRS-2676: Start of 'ora.crf' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb101'
CRS-2676: Start of 'ora.crsd' on 'tstldb101' succeeded
CRS-6023: Starting Oracle Cluster Ready Services-managed resources
CRS-6017: Processing resource auto-start for servers: tstldb101
CRS-6016: Resource auto-start has completed for server tstldb101
CRS-6024: Completed start of Oracle Cluster Ready Services-managed resources
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 07:55:39 CLSRSC-343: Successfully started Oracle Clusterware stack
2017/06/18 07:55:39 CLSRSC-594: Executing installation step 18 of 19: 'ConfigNode'.
CRS-2672: Attempting to start 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb101'
CRS-2676: Start of 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb101'
CRS-2676: Start of 'ora.asm' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.DATA.dg' on 'tstldb101'
CRS-2676: Start of 'ora.DATA.dg' on 'tstldb101' succeeded
2017/06/18 07:58:49 CLSRSC-594: Executing installation step 19 of 19: 'PostConfig'.
2017/06/18 08:00:43 CLSRSC-325: Configure Oracle Grid Infrastructure for
a Cluster ... succeeded
[root@tstldb101 ~]#
Ejecución de root.sh en Node-2
[root@tstldb102 ~]# sh /u01/app/12.2.0/grid/root.sh
Performing root user operation.
The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME= /u01/app/12.2.0/grid
Enter the full pathname of the local bin directory: [/usr/local/bin]:
Copying dbhome to /usr/local/bin ...
Copying oraenv to /usr/local/bin ...
Copying coraenv to /usr/local/bin ...
Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Relinking oracle with rac_on option
Using configuration parameter file: /u01/app/12.2.0/grid/crs/install/crsconfig_params
The log of current session can be found at:
/u01/app/oracle/crsdata/tstldb102/crsconfig/rootcrs_tstldb102_2017-06-18_08-01-29AM.log
2017/06/18 08:01:32 CLSRSC-594: Executing installation step 1 of 19: 'SetupTFA'.
2017/06/18 08:01:32 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector.
2017/06/18 08:02:00 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer
(TFA) Collector.
2017/06/18 08:02:00 CLSRSC-594: Executing installation step 2 of 19: 'ValidateEnv'.
2017/06/18 08:02:01 CLSRSC-363: User ignored prerequisites during installation
2017/06/18 08:02:01 CLSRSC-594: Executing installation step 3 of 19: 'CheckFirstNode'.
2017/06/18 08:02:02 CLSRSC-594: Executing installation step 4 of 19: 'GenSiteGUIDs'.
2017/06/18 08:02:03 CLSRSC-594: Executing installation step 5 of 19: 'SaveParamFile'.
2017/06/18 08:02:11 CLSRSC-594: Executing installation step 6 of 19: 'SetupOSD'.
2017/06/18 08:02:12 CLSRSC-594: Executing installation step 7 of 19: 'CheckCRSConfig'.
2017/06/18 08:02:12 CLSRSC-594: Executing installation step 8 of 19: 'SetupLocalGPNP'.
2017/06/18 08:02:14 CLSRSC-594: Executing installation step 9 of 19: 'ConfigOLR'.
2017/06/18 08:02:17 CLSRSC-594: Executing installation step 10 of 19: 'ConfigCHMOS'.
2017/06/18 08:02:17 CLSRSC-594: Executing installation step 11 of 19: 'CreateOHASD'.
2017/06/18 08:02:18 CLSRSC-594: Executing installation step 12 of 19: 'ConfigOHASD'.
2017/06/18 08:02:33 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf'
2017/06/18 08:02:49 CLSRSC-594: Executing installation step 13 of 19: 'InstallAFD'.
2017/06/18 08:03:00 CLSRSC-594: Executing installation step 14 of 19: 'InstallACFS'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb102'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources
on 'tstldb102' has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 08:03:25 CLSRSC-594: Executing installation step 15 of 19: 'InstallKA'.
2017/06/18 08:03:26 CLSRSC-594: Executing installation step 16 of 19: 'InitConfig'.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb102'
CRS-2793: Shutdown of Oracle High Availability Services-managed resources
on 'tstldb102' has completed
CRS-4133: Oracle High Availability Services has been stopped.
CRS-4123: Oracle High Availability Services has been started.
CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources
on 'tstldb102'
CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'tstldb102'
CRS-2677: Stop of 'ora.drivers.acfs' on 'tstldb102' succeeded
CRS-2793: Shutdown of Oracle High Availability Services-managed resources
on 'tstldb102' has completed
CRS-4133: Oracle High Availability Services has been stopped.
2017/06/18 08:03:40 CLSRSC-594: Executing installation step 17 of 19: 'StartCluster'.
CRS-4123: Starting Oracle High Availability Services-managed resources
CRS-2672: Attempting to start 'ora.evmd' on 'tstldb102'
CRS-2672: Attempting to start 'ora.mdnsd' on 'tstldb102'
CRS-2676: Start of 'ora.mdnsd' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.evmd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'tstldb102'
CRS-2676: Start of 'ora.gpnpd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'tstldb102'
CRS-2676: Start of 'ora.gipcd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'tstldb102'
CRS-2676: Start of 'ora.cssdmonitor' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'tstldb102'
CRS-2672: Attempting to start 'ora.diskmon' on 'tstldb102'
CRS-2676: Start of 'ora.diskmon' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.cssd' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.cluster_interconnect.haip' on 'tstldb102'
CRS-2672: Attempting to start 'ora.ctssd' on 'tstldb102'
CRS-2676: Start of 'ora.ctssd' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.cluster_interconnect.haip' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb102'
CRS-2676: Start of 'ora.asm' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.storage' on 'tstldb102'
CRS-2676: Start of 'ora.storage' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.crf' on 'tstldb102'
CRS-2676: Start of 'ora.crf' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'tstldb102'
CRS-2676: Start of 'ora.crsd' on 'tstldb102' succeeded
CRS-6017: Processing resource auto-start for servers: tstldb102
CRS-2673: Attempting to stop 'ora.LISTENER_SCAN1.lsnr' on 'tstldb101'
CRS-2672: Attempting to start 'ora.net1.network' on 'tstldb102'
CRS-2672: Attempting to start 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb102'
CRS-2676: Start of 'ora.net1.network' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.ons' on 'tstldb102'
CRS-2677: Stop of 'ora.LISTENER_SCAN1.lsnr' on 'tstldb101' succeeded
CRS-2673: Attempting to stop 'ora.scan1.vip' on 'tstldb101'
CRS-2677: Stop of 'ora.scan1.vip' on 'tstldb101' succeeded
CRS-2672: Attempting to start 'ora.scan1.vip' on 'tstldb102'
CRS-2676: Start of 'ora.scan1.vip' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.LISTENER_SCAN1.lsnr' on 'tstldb102'
CRS-2676: Start of 'ora.ASMNET1LSNR_ASM.lsnr' on 'tstldb102' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'tstldb102'
CRS-2676: Start of 'ora.ons' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.LISTENER_SCAN1.lsnr' on 'tstldb102' succeeded
CRS-2676: Start of 'ora.asm' on 'tstldb102' succeeded
CRS-6016: Resource auto-start has completed for server tstldb102
CRS-6024: Completed start of Oracle Cluster Ready Services-managed resources
CRS-4123: Oracle High Availability Services has been started.
2017/06/18 08:05:53 CLSRSC-343: Successfully started Oracle Clusterware stack
2017/06/18 08:05:53 CLSRSC-594: Executing installation step 18 of 19: 'ConfigNode'.
2017/06/18 08:06:20 CLSRSC-594: Executing installation step 19 of 19: 'PostConfig'.
2017/06/18 08:07:11 CLSRSC-325: Configure Oracle Grid Infrastructure for
a Cluster ... succeeded
[root@tstldb102 ~]#
Para finalizar una vez instalado todo, ejecuta el CVU de nuevo (Cluster Verification Utility). Si se ha salteado algun prerequisito o si hubieron fallas durante la instalación este paso fallará. En nuestro ejemplo va a fallar por los warnings ignorados.
Instalación del Software de Base de Datos Oracle 12c R2
Pre crear las ubicaciones para el home del RDBMS en ambos nodos
[oracle@tstldb101 ~]$ mkdir -p /u01/app/oracle/product/12.2.0/dbhome_1
[oracle@tstldb101 ~]$ ssh tstldb102 "mkdir -p /u01/app/oracle/product/12.2.0/dbhome_1"
[oracle@tstldb101 ~]$ mv linuxx64_12201_
linuxx64_12201_database.zip linuxx64_12201_grid_home.zip
[oracle@tstldb101 ~]$ mv linuxx64_12201_database.zip /u01/app/oracle/product/12.2.0/dbhome_1
Descomprimir Software de Base de Datos
[oracle@tstldb101 ~]$ unzip linuxx64_12201_database.zip
Ejecutar el Instalador
La Instalación de este Software de base de datos se sigue ejecutando con runInstaller tanto como en 11g y en 12.1. No como la Infraestructura Grid que cambio el script de instalación
[oracle@tstldb101 ~]$ database/runInstaller
Configurar las Actualizaciones de Seguridad
Se puede configurar el email para recibir información de problemas de seguridad y agregar las password para recibir las actualizaciones de seguridad via My Oracle Support. En nuestro ejemplo vamos a sacar la opción de mantenernos actualizados en Seguridad. Recibiremos una advertencia y continuamos con “YES”.
Opción de Instalación
Vamos a elegir “Install database software only option” porque después de finalizar la instalación creamos la base de datos.
Opciones de Instalacion de Base de Datos
Elegimos “Real Application Clusters Database”
Seleccionar la Lista de Nodos
Seleccionar todos los nodos del cluster donde se desea instalar la base de datos.
Seleccionar la Edición de la Base de Datos
Seleccionar según la licencia que se tenga.
Especificar la ubicación del la Instalación
Se puede elegir la ubicación del Oracle Base y del Software indicando el directorio.
Grupos Privilegiados de Sistema Operativo
Seleccionar los grupos de Sistema operativo que estén asociados a los diferentes usuarios para separar los roles. En nuestro ejemplo el DBA es el mismo para todos los roles.
Verificar Prerequisitos
Verifica que se cumplan todos los prerequisitos antes de comenzar la instalación. Nosotros ignoramos la advertencia del espacio de Swap porque es una instalación de Test.
Resúmen
Guardar el archive de respuestas si se desea automatizar para otras instalaciones o para verificaciones de opciones de instalación elegidas.
Instalación del Producto
Presione “install” para comenzar la instalación y verá la Ventana de avance de Instalación del Producto.
Scripts de Root
Para finalizar la instalación aparecerá una Ventana que requerirá ejecutar el script root.sh en todos los nodos del cluster.
Nodo 1 : tstldb101
[root@tstldb101 ~]# /u01/app/oracle/product/12.2.0/dbhome_1/root.sh
Performing root user operation.
The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME= /u01/app/oracle/product/12.2.0/dbhome_1
Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Nodo 2: tstldb102
[root@tstldb102 ~]# /u01/app/oracle/product/12.2.0/dbhome_1/root.sh
Performing root user operation.
The following environment variables are set as:
ORACLE_OWNER= oracle
ORACLE_HOME= /u01/app/oracle/product/12.2.0/dbhome_1
Enter the full pathname of the local bin directory: [/usr/local/bin]:
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
[root@tstldb102 ~]#
Presionar el botón “OK” una vez que se hayan terminado de ejecutar los scripts.
Finalización
En este punto el software de base de datos ha sido apropiadamente instalado en todos los nodos del cluster seleccionados.
Conclusión :
Instalamos el Software de la Infraestructura Grid y el Software de Base de Datos en todos los nodos.
Nos encontramos con nuevas opciones en "Cluster Configuration" incluyendo "Oracle Extended Cluster", agregar rango de nodos en "Add cluster node configuration" y la nueva opción “Flex” en redundancia de discos aparte de las que ya teníamos como High, Normal and External.
Y V Ravi Kumar es Oracle ACE Director y Oracle Certified Master (OCM) con 18 años de experiencia en Bancos, Financieras y Aseguradoras (BFSI) trabajando en varios roles como Senior Database Architect y DBA de Producción. Es también OCP en Oracle 8i, 9i, 10g, 11g y 12c y Certificado en Oracle GoldenGate, RAC, Performance Tuning y Oracle Exadata. Frecuentemente motiva a varios DBAs y apoya a la Comunidad Oracle publicando sus tips, ideas, sugerencias y soluciones en su blog. Ravi ha escrito más de 40 artículos para OTN de Oracle Exadata, Oracle RAC and Oracle GoldenGate tanto para OTN en Español, OTN en Portugues y OTN en Inglés, 19 artículos para TOAD World, 2 Artículos para UKOUG, 3 Artículos para OTech Magazine y 2 Artículos para Redgate. Es miembro de NYOUG y AIOUG y es Oracle Speaker frecuente en @NYOUG, @OTN, AIOUG, Sangam y IOUG. Ha diseñado e implementado la Base de Datos de Core Banking System (CBS) para Central Banks de dos paises - India y Mahe, Seychelles. Ravi es Co-Fundador de OraWorld (www.oraworld.com). Mas detalles en su perfil en LaserSoft Autor del Libro: “Database upgrade and Migration methods to Oracle 12c” Publicado en Nov 2016 por APRESS Publishers.
Rita Nuñez es Oracle ACE y DBA con más de 15 años de experiencia. Ingeniera en Sistemas. Instructora de Cursos Oficiales de Oracle University. CEO de Tecnix Solutions lidera los servicios de Consultoría y Capacitación en Productos Oracle. Colabora con la Comunidad Oracle escribiendo artículos para OTN y en su blog, además dando presentaciones en eventos de OTN desde 2013 tanto en Argentina como en Latinoamérica :Brasil, Uruguay y Chile, Costa Rica, Panamá. En el Oracle Open World 2016, 2017 y Oracle Code 2018 Buenos Aires y Paris. Es Coordinadora del SIG Database & RAC de AROUG.
Konstantin Kerekovski es Oracle ACE Associate, con más de 7 años de experiencia en la industria financiera. Es miembro del Independent Oracle User Group (IOUG) y de Suncoast Oracle User Group (SOUG). Ha trabajado como Senior y Lider DBA con resposabilidades de soporte a la Producción en Financial Services Industry. Es speaker en IOUG Collaborate 2017 y en las reuniones de SOUG en el área de Tampa Bay.Es experto en Tecnologias de Oracle Real Application Cluster, ASM, Goldengate en Oracle 11g y 12c.
Este artículo ha sido revisado por el equipo de productos Oracle y se encuentra en cumplimiento de las normas y prácticas para el uso de los productos Oracle.