dissabte, 22 d’abril del 2017

Configurar NetApp FAS2552/4 10G iSCSI Direct Attach en CDOT con VMware

Hola a todos,

En muchas de las implementaciones de almacenamiento nos encontramos que hay una buena aceptación en ampliar la velocidad de 1 Gb a 10Gb. A primera vista y sobre el papel encaja bien, normal multiplicamos por 10 el ancho de banda. Pero nos encontramos que no quieren invertir en electrónica de red por precio. Desde NetApp con las FAS25XX si escogemos la opción en 10G podemos implementar Direct Attach. Ahora bien esta implentación esta limitada a 2 hosts si queremos alta disponibilidad o 4 hosts sin alta disponibilidad.

Teniendo en cuenta que los servidores de hoy en día soportan 18 cores por procesador y hasta 384GB de RAM, muchas Empresas tienen de sobras para implementar una solución de virtualización en alta disponibilidad.

El modelo elegido de NetApp es el FAS2552 que dispone de dos controladoras y 6 puertos en cada una de ellas:
  • 4 puertos UTA2. (10G o 16FCP)
  • 2 puertos a 1Gb. 

De los puertos UTA2, 2 bocas las utilizaremos para la conexión Switchless del cluster data ontap y las otras 2 las utilizaremos para trafico SAN a 10Gb. Las 2 conexiones a 1Gb las podemos utilizar para para trafico CIFS, SnapManager o trafico iSCSI para peralizar backup mediante LAN FREE.


Empezamos con la implementación

Esta implementación se ha realizado mediante iSCSI porque será VMware quien se encarge de realizar el multipath.


Configuración de Broadcast Domains

Al tratarse de una configuración en Direct Attach contra dos servidores crearemos un dominio de broadcast por interfaz dejando el multipath para VMware.

En este punto definiremos si nuestros puertos de 10Gb trabajaran con JUMBO FRAMES o no. Mi recomendación es que se habiliten, pero debemos tener en cuenta que todos los elementos del circuito completo de cabina, switches y tarjeta de red lo soporten. En este caso solo necesitamos que este habilitado en el VMware.


Subnets

Una vez creado el broadcast domain crearemos un subnet para cada interfaz.

Network Interfaces

Ahora es el momento de definir las direcciones ip de cada puerto de 10Gb


iSCSI en SVM

Comprobar que están habilitados todos los LIFS en el protocolo de la SVM que tiene que dar servicio iSCSI.


Configuración en VMware

En VMware solo nos queda implementar el multipath de iSCSI que en el siguiente articulo podemos ver como se realiza dicha configuración.

Una vez implementado iSCSI binding solo nos queda presentar las LUNS a nuestros servidores ESXi y reescanear los discos en VMware.

Espero que sea de gran ayuda y hasta la próxima.

dimarts, 27 de desembre del 2016

Aumentar espacio del disco de logs del vCenter Server Appliance

La nueva versión del VCSA (vCenter Server Appliance) incorpora hasta 11 discos, con esta separación la VCSA diversifica para cada disco un función determinada y sin afectar al resto de servicios.

Una de las particiones que acostumbra a llenarse as es la de los logs de vmware, esta hace que aparezcan alertas de salud en vCenter de forma constante.

Aumentar el tamaño de la partición en muy sencillo y no requiere de parada de servicio:

1.- Identificar el disco de LOGS

Para identificar el disco de LOGS tenemos que entrar en nuestro VCSA mediante SSH y activar la consola SHELL

> shell.set --enable true
> shell

2.-  Ver el espacio libre que tenemos en cada partición

# df -h


3.- Identificar a que disco corresponde


# lsblk


4.- Identificar la partición SDE a que disco corresponde

# lsscsi


5.- Aumentar el tamaño del disco


6.- Extender la partición

# vpxd_servicecfg storage lvm autogrow


7.- Comprobar el estado de nuestro VCSA


Espero que haya sido de vuestra ayuda, un saludo y hasta la próxima


dimecres, 12 d’octubre del 2016

Asignar particiones de discos con NetApp ONTAP

Hola a todos,

Después de haber creado el cluster los sistemas entry level de NetApp FAS25XX y con version ONTAP9 por defecto particionarán los discos con dos particiones Root y SPARE, pero de forma automática el sistema asignara la parte de spare de forma simétrica a cada controladora.

  • Partición de root 
  • Partición de Spare 

Por ejemplo, si tenemos un FAS2552 con 4 discos SSD y 20 discos SAS, en que queremos crear un único agregado de todos los discos (One large Pool), no podremos el setup inicial asignara la partición de spare 10 discos mecánicos a la controladora A (nodo1 del cluster) y otros 10 a la controladora B (nodo 2 del cluster).


En muchos proyectos queremos asignar los 20 discos a una única controladora, pues vamos a ello.

  • Primero entraremos a la administración del cluster a través de la shell y entramos en modo diag con el comando "set diag"




  • Comprobaremos el estado de las particiones con el comando "Partition Show"

Con la siguiente información vemos que la partición de SPARE de los discos pares están asignados al NODO2del cluster "CLU02-02"


Y la partición de SPARE de los discos impares esta asignada al NODO1 del cluster "CLU02-01"


Ahora nos queda asignar las particiones al nodo que queramos en este caso asignaremos todos los discos al nodo1 del cluster "CLU02-01"

  • Primero entraremos a la shell del nodo del cluster. a través de la ip del nodo
  • Entraremos en modo diag con el comando "set diag"
  • asignaremos la partición de spare del nodo "CLU02-02" al nodo "CLU02-01" con el comando "partition assign -partition 1.0.4.P1 -owner CLU02-01 -force"
Una vez asignados todos los discos de SPARE al nodo1 "CLU02-01" ya podremos crear un agregado de todos los discos


Espero que haya sido de vuestra ayuda




dimarts, 1 de març del 2016

Que Son los VVOLS???

Para poder comprender esta nueva funcionalidad de VMware, primero debemos entender que hasta ahora en un sistema de almacenamiento toda la administración y operación de las LUNs (Bloque) o Volúmenes (NFS) es dependiente del administrador de la solución.

Cuando en VMware necesitamos realizar operaciones como Snapshots o clonacion el sistema de almacenamiento no sabe que maquinas virtuales están solicitando estas operaciones. Esto supone que un administrador de vSphere tiene que trabajar de la mano del administrador de almacenamiento para configurar los DataStores, el rendimiento de los mismos, capacidad, protección, ect...
Con los VVols de VMware podemos solucionar estas problemáticas tratando cada maquina virtual como un objeto dentro de nuestro sistema de almacenamiento, pudiendo aplicar políticas de rendimiento y protección en función de la maquina virtual.

Como funcionan los VVols?

Los VVOLS realizan un mapping de cada virtual disk, snapshot o clonación de la maquina virtual contra el sistema de almacenamiento dándole todo el control de la operación sin que sea el vSphere quien tenga que realizar la operación.

Al crear un volumen por cada virtual disk, Snapshot o clonación podemos aplicar políticas en función de cada tarea y podemos asignar recursos o requerimientos por maquina virtual y no por Datastore.
Como vemos, los VVols es cun cambio dentro del mundo de la virtualización, donde ahora son las maquinas virtuales y no los datastores junto con el almaceniento quienes tienen la gestión y el control del contenido de los virtual disks.
Hasta la proxima

dissabte, 28 de març del 2015

Como convertir una cabina NetApp FAS2200 o FAS2500 de 7-mode a CDOT 8.3 con ADP

Hola,

En el presente artículo explicaremos como actualizar nuestros sistemas de almacenamiento FAS2200 y 2500 de 7-mode a Cluster Data Ontap (CDOT) con Advanced Drive Partition (ADP).

Tenemos que tener presente que al realizar esta operación tendremos un perdida de la información si esta reside en los discos de la propia controladora, en caso de disponer bandejas adicionales deberemos mover los volúmenes que tengamos en producción a dichas bandejas.

Conversión a Cluster Data ontap

Primero debemos asegurarnos de que nuestra cabina está trabajando con la versión 8.2 Actualizar del sistema operativo, en caso de tener una versión inferior deberemos actualizar a la 8.2.

  • Mediante SSH ejecutamos la instrucción "sysconfig" para ver en que versión de sistema operativo de DataOntap estamos trabajando.
Una vez actualizamos tengamos nuestra cabina actualizada cambiaremos de 7-mode a Cluster Data Ontap (CDOT)

  • Conectaremos por cable serie a cada uno de las dos controladoras y las detendremos mediante el comando "Halt"
  • En la primera de las controladoras cambiaremos la variable que determina si el S.O es 7-mode o CDOT
LOADER> set-defaults
LOADER> setenv bootarg.init.boot_clustered true 
  • Iniciaremos el primer nodo con el comando
LOADER> boot_ontap
  • El siguiente paso es realizar un wipeconfig, para ello presionaremos CTRL-C para detener el proceso de arranque.
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos.


Este proceso tardará una serie de horas, en función del tamaño y de la cantidad de discos que tengamos (6 discos de 900 SAS 2 horas) y hay que realizarlo en ambas controladoras.

Actualizar a 8.3

Una vez realizado el Zeroed de los discos nuestros nodos aparecerán con el “cluster setup” para crear un nuevo cluster. Como el objetivo es implementar ADP y este solo esta soportado en la versión 8.3 cancelaremos el asistente de “Cluster Setup” con un CTRL-C.

Para actualizar la versión del sistema operativo en CDOT tenemos dos opciones, mediante el menú de arranque de cada nodo o por comandos del cluster. En el presente documento lo realizaremos mediante el menú de arranque porque son cabinas que no estaban trabajando en CDOT.


  • Primero asegurarnos que tenemos conexión de red en el interfaz e0M
  • Copiar el fichero de CDOT 8.3 a un servidor Web o FTP.
  • Reiniciaremos el primer nodo con el comando “system node reboot”
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 

*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Seleccionaremos la opción 7.
  • En los siguientes pasos no pedirá:
  • Por que interfaz queremos actualizar
  • Dirección IP
  • Mascara de Subred
  • Puerta de enlace
  • La dirección URL con el nombre del paquete a instalar


  • Una vez finalizado el proceso de instalación comprobaremos que la versión del S.O es 8.3 con el comando


::>system node image show

  • Detendremos el nodo con el comando

::>system node halt
  • Repetiremos estos pasos con el segundo nodo del Cluster

Quitar el propietario de los discos

Con los dos nodos detenidos tendremos que desasignar y quitar el propietario de los discos. Para ello necesitaremos realizar estas operaciones en los dos nodos.

  • Arrancaremos el primer nodo del cluster con el comando

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Entraremos en modo mantenimiento con la opción 5

  • Desasignaremos los discos y el propietario

*> storage release disks
*> disk remove_ownership all
  • Una vez realizadas estas operaciones en ambos nodos los tenedremos con el comando

*> Halt

Configurar ADP

  • Iniciamos el primer nodo

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C para realizar un wipeconfig

******************************** Press Ctrl-C for Boot Menu. ******************************** 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos. Esta vez el formateo es más rápido (10 discos 900 SAS 10 minutos) porque no existen agregados ni asignación de discos.
  • Mi recomendación es que nos esperemos delante de la pantalla y esperar a que se reinicie el nodo y detener el proceso de boot presionando CTRL-C

Starting AUTOBOOT press Ctrl-C to abort...

Pressing Ctrl-C  launches the LOADER/CFE prompt:
  • Realizar la misma operación el segundo nodo


En este punto  ya disponemos de 10 o 12 discos por nodod con el espacio reservado para el agregado root de cada nodo.

  • Iniciamos ambos nodos con el comando

LOADER> boot_ontap
  • El siguiente paso es introducir dirección ip, mascara de subred y puerta de enlace del interface de administración del nodo e0M


  • En cuanto ambos nodos tengan ip y visibilidad ejecutaremos el programa "system setup", que podemos descargar desde pagina de soporte de NetApp. Mediante el system setup podremos configurar la asignacion de discos de nuestro cluster.

Activo/Pasivo


Activo/Activo


En nuestro caso escogeremos la opción de activo/pasivo para tener el mayor número de discos trabajando en paralelo y mayor tamaño para datos

Espero que haya sido de vuestra ayuda y hasta la próxima. 

dimecres, 11 de març del 2015

Actualizar NetApp SnapCreator Software a 4.1

Hola a todos,

En el siguiente artículo nos centraremos en como actualizar nuestro servidor de SnapCreator a la versión 4.1.

En primer lugar tendremos que realizar un backup de nuestra base de datos de SnapCreator.
  • Parar los servicios de SnapCreator server y agent 
  • ver que puerto estamos usando para dar servicio.
    • Abrir el fichero cd /install_path/scServer4.1.0/engine/etc/snapcreator.properties
    • ver que puerto se esta utilizando

  • Copiar las carpetas:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\Logs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\etc
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\snapcreator
  • En caso de tener instalado el agente de snapcreator en el mismo servidor devermeos copiar la configuracion del agente
    • C:\Program Files\NetApp\Snap_Creator_Framework\scAgent4.0.x\config\agent.conf
Una vez ya hemos realizado nuestro backup procederemos a desinstalar la version de SnapCreator 
  • En versiones Windows desde agregar y quitar programas del panel de control
El siguiente paso ya es instalar la nueva version de NetApp SnapCreator

  • Durante el proceso de instalacion devemos tener en cuenta el puerto que utilizábamos en nuestra version anterior
  • Introduciremos las credenciales de nuestra controladora FAS

Una vez finalizada la instacion de la nueva version devermos restaurar los datos, para ello realizaremos los siguientes pasos:
  • Detener los servicios de SnapCreator
  • Borrar la carpeta 
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
  • Copiar las carpetas salvaguardadas en:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\logs
  • Abriremos una interfaz de comandos en la siguiente ruta
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine
  • Ejecutaremos la siguiente instruccion
    • java -jar snapcreator.jar -upgrade
  • Cuando el proceso de actualización termine arrancaremos los servicios de SnapCreator

Hasta la próxima

dilluns, 2 de febrer del 2015

Como Borrar una replica en la BBDD de vSphere Replication

Hola a todos,

En el siguiente articulo os explicaré como borrar una réplica de nuestro vSphere Replication que no podemos eliminar porque nuestra máquina virtual ya no existe o no tenemos otra forma de borrarla.

En primer lugar realizaremos un SnapShot de nuestro appliance de replicación i nos conectaremos por SSH a nuestro appliance de replicacion i ejecutamos los siguientes comandos:
  • Nos posicionamos en el directorio de la BBDD "cd /opt/vmware/vpostgres"

  • Listamos el contenido "ls -l" para ver la version de la BBDD que tenemos instalada, en nuestro caso 1.0

  • Nos posicionamos dentro del directorio "cd /opt/vmware/vpostgres/1.0/bin"

  • Entramos en la BBDD de postgres "./psql -U vrmsdb"

  • Ejecutamos esta consulta: 


SELECT a.group_movalue AS "PRIMARY GID", b.name AS "VM Name", 'https://' || c.address || ':8043/mob/?moid=' || a.group_movalue || '&vmodl=1' AS "Link to Paste" FROM primaryvirtualmachineentity a, virtualmachineentity b, localserverentity c WHERE a.movalue = b.movalue ORDER BY name;
  • Nos muestra el siguiente resultado:




  • Abrimos nuestro navegador y accedemos a la URL que hemos copiado

  • Seleccionamos la opción Destroy


  • Seleccionamos la opción "destroy"
A este punto ya no tendriamos que tener la replica de nuestra Maquina Virtual, y si todo funciona de forma correcta ya podemos borrar nuestro SnapShot.

Espero que haya sido de vuestra ayuda y hasta la próxima