Logs creación bases de datos en ODA

Problema:

En nuestro ODA (Oracle Database Appliance X7-2HA), se necesita crear una base de datos, pero en algún momento de la instalación esta finaliza con el siguiente error:

ERROR: 2019-01-14 08:30:43: Failed to run /u01/app/12.2.0.1/grid/bin/sqlplus -L / as sysasm @/opt/oracle/oak/log/oda1/utils/12.2.1.3.0/sql/checkdg_redundancy_70817.sql
Died at /opt/oracle/oak/lib/oakutilslib/SqlUtils.pm line 95.

Para la creación de la base se ha usado la siguiente orden:

[root@oda1 dbconf]# oakcli create database -db test -oh OraDb12102_home1 -params dataguard 

Donde dataguard son los paremetros para la creación de nuestra base de datos

Solución:

Para tener mas información y saber en que ha fallado o donde puede estar el problema, los logs de la creación de la base de datos en ODA están en la ruta «/opt/oracle/oak/log/inca1/tools/12.2.1.3.0/ » donde 12.2.1.3.0 es la version de nuestro demonio de OAK

Estado del raid de arranque en ODA x7

Problema:

En nuestro oda, despues de un tiempo sin reinciar y antes un proceso crítico en las proximas fechas, necesitamos saber si una vez apagado, al arrancar de nuevo el raid de discos donde se encuentra el boot funcioná de manera correcta

SOLUCIÓN:

Para realizar esta tarea, lo haremos con el comando mdad sobre los dispositivos «/dev/md0» y «/dev/md1» que son los discos que tienen el boot de arranque (En raid 0)

[root@test-node1 ~]##NODO 0
[root@node0-x7 ~]# mdadm --detail /dev/md0
/dev/md0:
Version : 1.0
Creation Time : Thu May 3 20:48:11 2018
Raid Level : raid1
Array Size : 511936 (499.94 MiB 524.22 MB)
Used Dev Size : 511936 (499.94 MiB 524.22 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jun 24 01:00:04 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:0
UUID : f208c90f:1aeddba4:5aab5a39:da7f9f34
Events : 43

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
[root@node0-x7 ~]# mdadm --detail /dev/md1
/dev/md1:
Version : 1.1
Creation Time : Thu May 3 20:48:12 2018
Raid Level : raid1
Array Size : 467694592 (446.03 GiB 478.92 GB)
Used Dev Size : 467694592 (446.03 GiB 478.92 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Jun 27 09:29:54 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:1
UUID : ce4fb3e0:2af57fa0:7608ff49:cf4e9e5f
Events : 4171

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3

##NODO 1
[root@node1-x7 ~]# mdadm --detail /dev/md0
/dev/md0:
Version : 1.0
Creation Time : Thu May 3 20:44:44 2018
Raid Level : raid1
Array Size : 511936 (499.94 MiB 524.22 MB)
Used Dev Size : 511936 (499.94 MiB 524.22 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Tue Jun 26 15:27:01 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:0
UUID : 3d087a10:957b48ba:8f50c397:b5a34ea3
Events : 43

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
[root@node1-x7 ~]# mdadm --detail /dev/md1
/dev/md1:
Version : 1.1
Creation Time : Thu May 3 20:44:45 2018
Raid Level : raid1
Array Size : 467694592 (446.03 GiB 478.92 GB)
Used Dev Size : 467694592 (446.03 GiB 478.92 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Jun 27 09:28:56 2018
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : localhost.localdomain:1
UUID : 74e59374:1639f352:fea3567d:5efacab3
Events : 4098

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3

</pre class>

En la salida del comando, tenemos que ver que la etiqueta "Working devices" está en 2 y que la etiqueta "Failed devices" está a 0

Esta comprobación hay que realizarla en los dos nodos para asegurarnos

Añadir disco compartido a una VM en ODA

Problema:

Necesitamos añadir un nuevo disco a una VM en ODA con la versión:

[root@test-oda ~]# oakcli show version
Version
-------
12.1.2.11.0
[root@test-oda~]#

Solucion:

El proceso es fácil. El esquema general sería en siguiente

  1. Crear disco en repositorio compartido
  2. Añadir disco a la máquina
  3. Comprobar que se ha añadido de manera correcta

Adjuntamos los pasos ejecutados en códio

root@oda-node1 ~]# oakcli create vdisk vm-disk -repo oda-repo -size 10G -type shared

Created Vdisk : oakvdk_zezere-disk

[root@oda-node1 ~]# oakcli modify vm vm-demo -attachvdisk vmdisk

Configured VM : vm-demo. Changes will take effect on next restart of VM.


[root@oda-node1 ~]# oakcli show vm vm-demo
The Resource is : zezere
        AutoStart       :       restore        
        CPUPriority     :       100            
        Disks           :       |file:/OVS/Repositories/vmrepo/.
                                ACFS/snaps/VirtualMachines/z
                                ezere/62e6a5ebba36477d98e369fdb429a
                                4fd.img,xvda,w|
        Domain          :       XEN_PVM        
        DriverDomain    :       True           
        ExpectedState   :       online         
        FailOver        :       false          
        IsSharedRepo    :       true           
        Keyboard        :       en-us          
        MaxMemory       :       40960M         
        MaxVcpu         :       8              
        Memory          :       8192M          
        Mouse           :       OS_DEFAULT     
        Name            :       vm-demo         
        Networks        :       |bridge=net1||bridge=net2|
        NodeNumStart    :       0              
        OS              :       OL_5           
        PrefNodeNum     :       0              
        PrivateIP       :       None           
        ProcessorCap    :       0              
        RepoName        :       odavmrepo      
        State           :       Online         
        TemplateName    :       Template OEL7         
        VDisks          :       |vm-disk
        Vcpu            :       8              
        cpupool         :      AppCpuPool  
        vncport         :       5903           

[root@oda-node1 ~]# oakcli show version
Version
-------
12.1.2.11.0
[root@oda-node1 ~]#