Rescan de discos con iscsi

Problema:

Por problemas de espacio necesitamos hacer un rescan de nuestro disco iscsi.

Solución:

Para ello ejecutamos el siguiente comando

iscsiadm -m node -R

A continuación mostramos la secuencia completa de comandos:

Contenido original del disco

# fdisk -l /dev/sdc

Disk /dev/sdf: 506.09 GB, 98212254720 bytes
64 heads, 32 sectors/track, 30720 cylinders
Units = cylinders of 2048 * 512 = 221048576 bytes

Device Boot      Start         End      Blocks   Id  System
/dev/sdf           1       30720    31457264   83  Linux

Reescaneo de discos

iscsiadm -m node -R
Rescanning session [sid: 1, target: iqn.1992-08.com.netapp:sn.3f3d51deaa9900a0988def83:vs.90, portal: 172.168.125.221,3260]
Rescanning session [sid: 2, target: iqn.1992-08.com.netapp:sn.3f3d51deaa900a0988def83:vs.90, portal: 172.168.125.220,3260]

Disco duro con espacio aumentado

# fdisk -l /dev/sdj
Disk /dev/sdj: 966.5 GB, 966490324992 bytes, 1887676416 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 65536 bytes

 

 

Configuración snapvault entre cabinas NetApp ClusterMode

Pasos para configurar un snapvault entre cabinas de NetApp:

1.- Disponer licencia de snapvault en las dos cabinas de almacenamiento.

2.- Disponer de una relación entre los dos clusters, puertos de comunicación.

Una vez, verificados los dos puntos anteriores, los pasos para realizar la programación del snapvault son los siguientes, usando siempre la GUI.

a.- En la cabina origen,en el menú contextual izquierdo Configuration>SVM Peers , crear la relación entre la SVM origen y la nueva SVM que va a contener el snapvaul. Pueden llamarse igual. Despues de crearla ir a la cabina destino y validar la relación en Configuration>SVM Peers>Actions>Accept.

b.- En la cabina origen, en el menu Storage>VolumesAction> Protect, establecer la relación entre los dos volúmenes que se quieren copiar. El volumen destino, por defecto tendrá «_dst», seleccionar el tipo de relación que será «Vault» Volume Relationship Type. Primero validar «Validate»  y después salvar «Save».

c.-Creamos ahora la política de retención de los snapshot, que será distinta a la politica del volumen origen, esta es la particularidad de los snapvault. Backup con mayor retención. Esto se realiza en la cabina destino en Storage>SVM>Protection Policies, creamos una política de snapshot, indicando Policy Type: Vault, Policy Name: Nombre politica, poner etiquetas para la retención de los snapshot, diario (numero de snapshot a retener), semanal (numero de snapshot a retener). Estos nombres son importantes para luego asociarlos a los snapshot de origen.

d.-Asignar en destino  la política de snapshot que hemos definido en Protection>Relationships>Edit, modificar el nombre de «Policy» y seleccionar el que hemos generado en el apartado C.

e.-Asociar los snapshot entre origen y destino. Esto se hace en la cabina de origen, en la svm origen, donde estan definidos los snapshot en SVM Settings>Snapshot Policy>Edit, editamos la política de snapshot y añadimos las etiquetas que hemos definido en el apartado C.

Con está configuración ya hemos terminado de realizar el snapvault.

Auditar CIFS en SVM, NetApp

El objetivo es auditar los recursos CIFS, creados en un recurso compartido de Netapp.

Los pasos de ejecucion para comenzar a registrar los eventos de auditoria son:

  1. Crear carpeta dentro de SVM para guardar ficheros de auditoria.
  2. Crear la política de guardar auditoria, guardamos todos los meses, todos los días y 12 horas.
vserver audit create -vserver “SVM” -destination “/recursocompartido/logs_auditoria” -events file-ops ,cifs-logon-logoff, cap-staging -rotate-schedule-month all -rotate-schedule-dayofweek all -rotate-schedule-hour 12 -rotate-schedule-minute 10

3. Habilitar auditoria en la svm

 vserver audit enable -vserver “SVM”

4. Ver que se ha aplicado la política de auditoria con el comando:

vserver audit show -instance -vserver “SVM”

 Vserver: “SVM”
Auditing State: true
Log Destination Path: “/recursocompartido/logs_auditoria”  Categories of Events to Audit: file-ops, cifs-logon-logoff, cap-staging
Log Format: evtx
Log File Size Limit: -
log Rotation Schedule: Month: January-December
Log Rotation Schedule: Day of Week: Sunday-Saturday
Log Rotation Schedule: Day: -
Log Rotation Schedule: Hour: 12
Log Rotation Schedule: Minute: 10
Rotation Schedules: @12:10
Log Files Rotation Limit: 0

 

 

Configurar Antivirus con AV_Connector, Server Protect y NetApp

El objetivo de este artículo es conectar un antivirus en las cabinas de NetApp con tres componentes Server Protect, AV_Connector y NetApp.

cOMPONENTES:

1.- ServerProtect 6 , componente de Trend Micro, en un Windows 2012 o superior.

2.- Instalar “ONTAP AV-connector” que habremos descargado de la web de NetApp. Versión 1.3. En la misma maquina donde hemos instalado el Server Protect.

Pasos de configuracion:

3.-A través de la interfaz GUI de cabina de de NetApp, generar un usuario en la pestaña de “Configuration-Security-Users” con permisos de aplicación “ontapi y ssh” y rol “wsadmin-readonly”

Usuario Creado para conexion entre AvConnector y Cabina NetApp Cluster Mode
Usuario Creado para conexion entre AvConnector y Cabina NetApp Cluster Mode

4.-Tener habilitado en la SVM el management de la misma, o habilitarlo en caso de no tenerlo.

5.-Ejecutar “Av-Connector” e introducir la ip de la lif de acceso al volumen con el usuario  y password creado en el punto 3 y poniendo por defecto los campos poll (60).

Configuración AV_Connector
Configuración AV_Connector

 

 

6.- Ejecutar Server Protect y sobre el nombre de la maquina con el desplegable, ejecutar “device list”. Añadir la ip o nombre del recurso cifs y con esto quedará añadida la conexión entre el aplicativo de antivirus y el recurso cifs.

Conexion Server Protect
Conexion Server Protect

7.- Acceder a la cabina de Cluster-Mode por ssh, habilitar antivirus con los siguientes comandos:

cluster::> vscan show 
cluster::> vscan scanner-pool show-active 
cluster::> vscan scanner-pool create -vserver “SVM” -scanner-pool p1 -servers “IP SERVIDOR ANTIVIRUS” -privileged-users “USUARIO CON PRIVILEGIOS ADMINISTRATIVOS DE DOMINIO DE RECURSO”
cluster::> vscan scanner-pool show                                                
cluster::> vscan scanner-pool apply-policy -vserver “SVM” -scanner-pool p1 -scanner-policy primary 
cluster::> vscan scanner-pool show-active                       
cluster::> vscan enable -vserver “SVM”                                         
cluster::> vscan show       

NetApp: Actualizar cabina Data Ontap

El objetivo que buscamos es tener actualizada la cabina de almacenamiento de NetApp para sarcar mayor rendimiento posible y tener los mínimos agujeros de seguridad posibles.

Se divide en dos pasos, descargar el software y subirlo a la interfaz gráfica.

Pasos para descarga software:

  1. Conectarnos al portal de NetApp en el enlace de soporte y validarnos.
  2. Acceder a través del menú «Downloads»y seleccionar del desplegable «Software».
  3. Seleccionara el modelo de cabina que tenemos y pulsar el boton «Go»

Seleccion Modelo de Cabina Almacenamiento

    Seleccion Modelo de Cabina Almacenamiento

4. Seleccionar en la siguiente ventana la versión que deseamos descargar y seguir el asistente hasta descargar el fichero con la actualización. El fichero tiene extensión tgz.

pasos para subir software a gui de data ontap

  1. Tenemos que tener un servidor de transferencia de ficheros http. Podéis usar hfs, funciona muy bien y no requiere instalación.
  2. Subir el fichero a hfs, arrastrando el fichero a la aplicacion es suficiente.
  3. Copiar la url que aparece en la parte superior de la imagen
    Aplicativo hfs para transferir ficheros
    Aplicativo hfs para transferir ficheros

     

  4. Ir a GUI y en el menú «Configuration» la opción «Cluster Update», si existes un fichero con la imagen subida primero borrarla con el botón «Delete». En caso contrario,  pulsar el botón «Add» y copiar la url que tenemos en el aplicativo HFS.
    Pagina subir imagen de actualización
    Pagina subir imagen de actualización

     

  5. Con el documento de actualización que hemos generado, el cual se encuentra explicado como sacarlo en el post:http://itsolutions.systems/2018/03/05/netapp-actualizar-version-clustermode/ y la imagen subida, se puede ejecutar la actualizacion de la cabina.

Monitorización de consumos de CPU en Netapp Cluster mode

Con el comando sysstat podemos monitorizar el consumo de cpu en cada nodo del cluster, viendo las operaciones por protocolo (NFS, CIFS, HTTP), uso de red, uso de disco…

Comando:

cluster::> node run -node nodo1 "sysstat -c 10 -x 1"

Muestra el % de uso de CPU cada 1 segundos en el mismo instante en el que estamos ejecutando el comando.

NetApp: Generar plan actualizacion Data Ontap

A través del portal de NetApp, se encuentra un asistente para actualizar la cabina de almacenamiento que tenemos. El objetivo es actualizar nuestra cabina de almacenamiento a la ultima version posible de la manera mas sencilla posible.La url de NetApp es la siguiente: https://www.netapp.com/es/site/index.aspx

Pasos para generar plan actualización

Nos validamos con el usuario con el que nos hemos registrado en el enlace de «Soporte». En el menu contextual superior, en la opción «Tools» seleccionar en el desplegable «Active IQ». Seleccionar en el menú de la izquierda la opción «Upgrade Advisor»

Página de actualización de software de NetApp
Página de actualización de software de NetApp

Se introducen los números de serie de las controladoras y se sigue el asistente, en el cual te muestra la versión en la que esta la cabina  y a la que puedes ir. Seleccionas la versión a la que deseas saltar y genera un informe.

Versión actual y posibles versiones futuras
Versión actual y posibles versiones futuras

El informe que es generado, se muestra en pantalla. Tambien se puede guardar el fichero con los pasos de actualización en formato pdf, excel o imprimirlo.

Informe del plan actualización cabina
Informe del plan actualización cabina

Netapp: Habilitar opciones de volumen NFS para montar en windows

Para poder montar un volumen de Netapp con el protocolo NFS en maquinas windows, es necesario habilitar una opcion del volumen generado en Netapp. Esto esta disponible en las versiones 8.3 en adelante (en las versiones anteriores lo desconocemos).

Mostramos las opciones NFS del volumen que queremos montar en windows.

CLUSTER::> nfs server show -vserver SVM

                            Vserver: SVM
                 General NFS Access: true
                             NFS v3: enabled
                           NFS v4.0: disabled
                       UDP Protocol: enabled
                       TCP Protocol: enabled
               Default Windows User: -
                NFSv4.0 ACL Support: disabled
    NFSv4.0 Read Delegation Support: disabled
   NFSv4.0 Write Delegation Support: disabled
            NFSv4 ID Mapping Domain: defaultv4iddomain.com
NFSv4 Grace Timeout Value (in secs): 45
Preserves and Modifies NFSv4 ACL (and NTFS File Permissions in Unified Security Style): enabled
      NFSv4.1 Minor Version Support: disabled
                      Rquota Enable: disabled
       NFSv4.1 Parallel NFS Support: enabled
                NFSv4.1 ACL Support: disabled
               NFS vStorage Support: disabled
NFSv4 Support for Numeric Owner IDs: enabled
              Default Windows Group: -
    NFSv4.1 Read Delegation Support: disabled
   NFSv4.1 Write Delegation Support: disabled
                NFS Mount Root Only: enabled
                      NFS Root Only: disabled
Permitted Kerberos Encryption Types: des, des3, aes-128, aes-256
                  Showmount Enabled: disabled
Set the Protocol Used for Name Services Lookups for Exports: udp
        NFSv3 MS-DOS Client Support: disabled

Observamos que la ultima opción, esta deshabilitada, la cual nos permite montar los volumenes en maquinas windows.

Se habilita con el siguiente comando:

nfs server modify -vserver SVM  -v3-ms-dos-client enable

Una vez habilitado, ya se pueden montar volumenes en sistemas operativos windows.

Funcionamiento y configuración Autogrow y Shrink en volumenes de vserver en cluster Netapp

Para configurar autogrow y shrink en el volumen lo primero es activarlo:

volume autosize -vserver vserver_name vol_name -mode grow_shrink

También se puede activar a través de la web, entrando en la svm y editando el volumen:

Funcionamiento Grow y shrink
Funcionamiento Grow y shrink

Con este comando sacaremos toda la configuración de los parámetros de Autogrow y Shrink de los volúmenes:

cluster::>volume show –vserver svm –volume volumen1

El autogrow aumenta el tamaño del volumen en función de un porcentaje (opción “Autosize Grow Threshold Percentage”) que se cambia por comando, por defecto 95%.

Al igual que shrink también hace que se disminuya el volumen en función de un porcentaje que está al 50%( parámetro “Autosize Shrink Threshold Percentage”). Es posible que el volumen no se reduzca, aunque estemos al 42% de uso porque hay otro parámetro que es “Minimun Autosize” que indica a lo mínimo a lo que puedes reducir el volumen con shrink.

El valor “Minimun autosize” se resetea al tamaño de volumen cuando se hace un resize o cuando se habilita el autosize.

Para cambiar estos parámetros:

cluster::>volume autosize

Volumenes de cluster inaccesibles y controladora fuera del cluster de Netapp

Un indicio que se ha salido una controladora de un cluster de Netapp, es que los volúmenes de esa controladora no puedes verlos a través del GUI si esa controladora tiene el Epsilon . La solución para poder seguir administrando los volúmenes aunque estén fuera de cluster es cambiar el Epsilon de nodo. Los pasos son los siguientes:

Cluster show (muestra los nodos del cluster, si hay alguno fuera del cluster lo indica al final de la visualización)

set -privilege advanced
cluster show -epsilon * (muestra todos los nodos del cluster e indica cual tiene el epsilon)
Cluster modify -node node1 -epsilon false (el nodo que tenia el epsilon se lo quitamos)
cluster modify -node node3 -epsilon true (asignamos al nodo3 epsilon)

Después de realizar este cambio ya podemos administrar los volúmenes que se encontraban en el nodo que está fuera del cluster