Logs creación bases de datos en ODA

Problema:

En nuestro ODA (Oracle Database Appliance X7-2HA), se necesita crear una base de datos, pero en algún momento de la instalación esta finaliza con el siguiente error:

ERROR: 2019-01-14 08:30:43: Failed to run /u01/app/12.2.0.1/grid/bin/sqlplus -L / as sysasm @/opt/oracle/oak/log/oda1/utils/12.2.1.3.0/sql/checkdg_redundancy_70817.sql
Died at /opt/oracle/oak/lib/oakutilslib/SqlUtils.pm line 95.

Para la creación de la base se ha usado la siguiente orden:

[root@oda1 dbconf]# oakcli create database -db test -oh OraDb12102_home1 -params dataguard 

Donde dataguard son los paremetros para la creación de nuestra base de datos

Solución:

Para tener mas información y saber en que ha fallado o donde puede estar el problema, los logs de la creación de la base de datos en ODA están en la ruta “/opt/oracle/oak/log/inca1/tools/12.2.1.3.0/ ” donde 12.2.1.3.0 es la version de nuestro demonio de OAK

Estado del raid de arranque en ODA x7

Problema:

En nuestro oda, despues de un tiempo sin reinciar y antes un proceso crítico en las proximas fechas, necesitamos saber si una vez apagado, al arrancar de nuevo el raid de discos donde se encuentra el boot funcioná de manera correcta

SOLUCIÓN:

Para realizar esta tarea, lo haremos con el comando mdad sobre los dispositivos “/dev/md0” y “/dev/md1” que son los discos que tienen el boot de arranque (En raid 0)

[root@test-node1 ~]##NODO 0
[root@node0-x7 ~]# mdadm --detail /dev/md0
/dev/md0:
Version : 1.0
Creation Time : Thu May 3 20:48:11 2018
Raid Level : raid1
Array Size : 511936 (499.94 MiB 524.22 MB)
Used Dev Size : 511936 (499.94 MiB 524.22 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jun 24 01:00:04 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:0
UUID : f208c90f:1aeddba4:5aab5a39:da7f9f34
Events : 43

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
[root@node0-x7 ~]# mdadm --detail /dev/md1
/dev/md1:
Version : 1.1
Creation Time : Thu May 3 20:48:12 2018
Raid Level : raid1
Array Size : 467694592 (446.03 GiB 478.92 GB)
Used Dev Size : 467694592 (446.03 GiB 478.92 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Jun 27 09:29:54 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:1
UUID : ce4fb3e0:2af57fa0:7608ff49:cf4e9e5f
Events : 4171

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3

##NODO 1
[root@node1-x7 ~]# mdadm --detail /dev/md0
/dev/md0:
Version : 1.0
Creation Time : Thu May 3 20:44:44 2018
Raid Level : raid1
Array Size : 511936 (499.94 MiB 524.22 MB)
Used Dev Size : 511936 (499.94 MiB 524.22 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Tue Jun 26 15:27:01 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:0
UUID : 3d087a10:957b48ba:8f50c397:b5a34ea3
Events : 43

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
[root@node1-x7 ~]# mdadm --detail /dev/md1
/dev/md1:
Version : 1.1
Creation Time : Thu May 3 20:44:45 2018
Raid Level : raid1
Array Size : 467694592 (446.03 GiB 478.92 GB)
Used Dev Size : 467694592 (446.03 GiB 478.92 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Jun 27 09:28:56 2018
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:1
UUID : 74e59374:1639f352:fea3567d:5efacab3
Events : 4098

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3

</pre class>

En la salida del comando, tenemos que ver que la etiqueta "Working devices" está en 2 y que la etiqueta "Failed devices" está a 0

Esta comprobación hay que realizarla en los dos nodos para asegurarnos

Como registrar en ASR de manera automática ODA-X7-2-HA

Problema:

Para cuando no estamos en la oficina y necesitamos que en caso de fallo hardware del ODA (Oracle Database Appliance) que se abra un caso de manera automática con Oracle. Con esto el servicio técnico de Oracle ya se pondría en contacto con nosostros

SOlución:

En primer lugar nos conectamos al nodo primario del oda y a continuacion hacemos el registro, para ello previamente necesitaremos un usuario de mos (usuario de soporte de oracle)

[root@test-node1 ~]# odacli configure-asr -u test@test-enterprise -a -t proxyport-r proxy.enterprise.com
Asr User password: 

Job details                                                      
----------------------------------------------------------------
                     ID:  8deefdbc0-8266-4392-a76e-d906aae9f7
            Description:  Configure ASR
                 Status:  Created
                Created:  June 8, 2018 10:12:57 AM CEST
                Message:

Con esto ya esta registrado nuestro sistema en ASR, ahora debemos comprobar que está funcionando de manera correcta con los comandos odacli describer-asr y odacli test-asr

[root@test-node1 ~]# odacli describe-asr
ASR details
----------------------------------------------------------------
ID: ea1158b8-4f6e-48fa-83c8-112cec37ee0
Name: ASR
ASR Type: Internal
External ASR Manager IP : 192.168.25.150
UserName: test@enterprise.com
ProxyServerName: proxy.enterprse.com
ProxyPort: 3128
ProxyUserName:
SnmpVersion: V3
State: Configured
Created: June 8, 2018 10:09:55 AM CEST
Updated: June 8, 2018 10:13:28 AM CEST
[root@test-node1 ~]# odacli test-asr

Job details
----------------------------------------------------------------
ID: 28034-4003-48fa-a847-4720711ddaf3
Description: Test ASR
Status: Created
Created: June 8, 2018 10:14:15 AM CEST

 

Añadir disco compartido a una VM en ODA

Problema:

Necesitamos añadir un nuevo disco a una VM en ODA con la versión:

[root@test-oda ~]# oakcli show version
Version
-------
12.1.2.11.0
[root@test-oda~]#

Solucion:

El proceso es fácil. El esquema general sería en siguiente

  1. Crear disco en repositorio compartido
  2. Añadir disco a la máquina
  3. Comprobar que se ha añadido de manera correcta

Adjuntamos los pasos ejecutados en códio

root@oda-node1 ~]# oakcli create vdisk vm-disk -repo oda-repo -size 10G -type shared

Created Vdisk : oakvdk_zezere-disk

[root@oda-node1 ~]# oakcli modify vm vm-demo -attachvdisk vmdisk

Configured VM : vm-demo. Changes will take effect on next restart of VM.


[root@oda-node1 ~]# oakcli show vm vm-demo
The Resource is : zezere
        AutoStart       :       restore        
        CPUPriority     :       100            
        Disks           :       |file:/OVS/Repositories/vmrepo/.
                                ACFS/snaps/VirtualMachines/z
                                ezere/62e6a5ebba36477d98e369fdb429a
                                4fd.img,xvda,w|
        Domain          :       XEN_PVM        
        DriverDomain    :       True           
        ExpectedState   :       online         
        FailOver        :       false          
        IsSharedRepo    :       true           
        Keyboard        :       en-us          
        MaxMemory       :       40960M         
        MaxVcpu         :       8              
        Memory          :       8192M          
        Mouse           :       OS_DEFAULT     
        Name            :       vm-demo         
        Networks        :       |bridge=net1||bridge=net2|
        NodeNumStart    :       0              
        OS              :       OL_5           
        PrefNodeNum     :       0              
        PrivateIP       :       None           
        ProcessorCap    :       0              
        RepoName        :       odavmrepo      
        State           :       Online         
        TemplateName    :       Template OEL7         
        VDisks          :       |vm-disk
        Vcpu            :       8              
        cpupool         :      AppCpuPool  
        vncport         :       5903           

[root@oda-node1 ~]# oakcli show version
Version
-------
12.1.2.11.0
[root@oda-node1 ~]#

Problema de actualización ODA X6-2-HA desde 12.1.2.11.0 a 12.2.1.2.0 “It should be relinked with RDS protocol”

Problema:

Al actualizar el ODA (oracle database appliance) X6-2-HA desde la versión 12.1.2.11.0 a la 12.2.1.0 obtenemos el siguiente error

[root@test-node1 ~]# oakcli update -patch 12.2.1.2.0 --server 

***************************************************************** 
The grid software on this system is linked with UDP/IP protocol. 
It should be relinked with RDS protocol 

For more details, please refer to the 12.2.1.2.0 release notes 
and README. 
***************************************************************** 

Exiting...

Solución:

Para solucionar el problema, en primer lugar tenemos que parar todas las bases de datos, en ambos nodos del ODA. Una vez paradas recompilamos las librerías para que la comunicación entre los nodos, en vez de ser mediante protocolo TCP/UDP sea mediante RDS

[root@test-node1 ~]# su - oracle
[oracle@test-node1 ~]# cd /opt/scripts
[oracle@test-node1 ~]# ./stop_databases.sh
[oracle@test-node1 ~]# ./stop_listeners.sh

##Ahora en el nodo 2 paramos las bases datos y los listeners

[root@test-node2 ~]# su - oracle
[oracle@test-node2 ~]# cd /opt/scripts
[oracle@test-node2 ~]# ./stop_databases.sh
[oracle@test-node2 ~]# ./stop_listeners.sh

##Vamos de nuevo al nodo 1

[oracle@test-node1 ~]#  cd $ORACLE_HOME/rdbms/lib 
[oracle@test-node1 ~]#  make -f ins_rdbms.mk ipc_rds 

##Hacemos los miso en el nodo 2

[oracle@test-node2 ~]#  cd $ORACLE_HOME/rdbms/lib 
[oracle@test-node2 ~]#  make -f ins_rdbms.mk ipc_rds 

Con esto ya podríamos proceder a la actualización de nuestro Oracle Database Appliance

Tenemos una nueva actualizacion sobre está entrada