Es mostren els missatges amb l'etiqueta de comentaris 7-mode. Mostrar tots els missatges
Es mostren els missatges amb l'etiqueta de comentaris 7-mode. Mostrar tots els missatges

dissabte, 28 de març del 2015

Como convertir una cabina NetApp FAS2200 o FAS2500 de 7-mode a CDOT 8.3 con ADP

Hola,

En el presente artículo explicaremos como actualizar nuestros sistemas de almacenamiento FAS2200 y 2500 de 7-mode a Cluster Data Ontap (CDOT) con Advanced Drive Partition (ADP).

Tenemos que tener presente que al realizar esta operación tendremos un perdida de la información si esta reside en los discos de la propia controladora, en caso de disponer bandejas adicionales deberemos mover los volúmenes que tengamos en producción a dichas bandejas.

Conversión a Cluster Data ontap

Primero debemos asegurarnos de que nuestra cabina está trabajando con la versión 8.2 Actualizar del sistema operativo, en caso de tener una versión inferior deberemos actualizar a la 8.2.

  • Mediante SSH ejecutamos la instrucción "sysconfig" para ver en que versión de sistema operativo de DataOntap estamos trabajando.
Una vez actualizamos tengamos nuestra cabina actualizada cambiaremos de 7-mode a Cluster Data Ontap (CDOT)

  • Conectaremos por cable serie a cada uno de las dos controladoras y las detendremos mediante el comando "Halt"
  • En la primera de las controladoras cambiaremos la variable que determina si el S.O es 7-mode o CDOT
LOADER> set-defaults
LOADER> setenv bootarg.init.boot_clustered true 
  • Iniciaremos el primer nodo con el comando
LOADER> boot_ontap
  • El siguiente paso es realizar un wipeconfig, para ello presionaremos CTRL-C para detener el proceso de arranque.
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos.


Este proceso tardará una serie de horas, en función del tamaño y de la cantidad de discos que tengamos (6 discos de 900 SAS 2 horas) y hay que realizarlo en ambas controladoras.

Actualizar a 8.3

Una vez realizado el Zeroed de los discos nuestros nodos aparecerán con el “cluster setup” para crear un nuevo cluster. Como el objetivo es implementar ADP y este solo esta soportado en la versión 8.3 cancelaremos el asistente de “Cluster Setup” con un CTRL-C.

Para actualizar la versión del sistema operativo en CDOT tenemos dos opciones, mediante el menú de arranque de cada nodo o por comandos del cluster. En el presente documento lo realizaremos mediante el menú de arranque porque son cabinas que no estaban trabajando en CDOT.


  • Primero asegurarnos que tenemos conexión de red en el interfaz e0M
  • Copiar el fichero de CDOT 8.3 a un servidor Web o FTP.
  • Reiniciaremos el primer nodo con el comando “system node reboot”
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 

*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Seleccionaremos la opción 7.
  • En los siguientes pasos no pedirá:
  • Por que interfaz queremos actualizar
  • Dirección IP
  • Mascara de Subred
  • Puerta de enlace
  • La dirección URL con el nombre del paquete a instalar


  • Una vez finalizado el proceso de instalación comprobaremos que la versión del S.O es 8.3 con el comando


::>system node image show

  • Detendremos el nodo con el comando

::>system node halt
  • Repetiremos estos pasos con el segundo nodo del Cluster

Quitar el propietario de los discos

Con los dos nodos detenidos tendremos que desasignar y quitar el propietario de los discos. Para ello necesitaremos realizar estas operaciones en los dos nodos.

  • Arrancaremos el primer nodo del cluster con el comando

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Entraremos en modo mantenimiento con la opción 5

  • Desasignaremos los discos y el propietario

*> storage release disks
*> disk remove_ownership all
  • Una vez realizadas estas operaciones en ambos nodos los tenedremos con el comando

*> Halt

Configurar ADP

  • Iniciamos el primer nodo

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C para realizar un wipeconfig

******************************** Press Ctrl-C for Boot Menu. ******************************** 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos. Esta vez el formateo es más rápido (10 discos 900 SAS 10 minutos) porque no existen agregados ni asignación de discos.
  • Mi recomendación es que nos esperemos delante de la pantalla y esperar a que se reinicie el nodo y detener el proceso de boot presionando CTRL-C

Starting AUTOBOOT press Ctrl-C to abort...

Pressing Ctrl-C  launches the LOADER/CFE prompt:
  • Realizar la misma operación el segundo nodo


En este punto  ya disponemos de 10 o 12 discos por nodod con el espacio reservado para el agregado root de cada nodo.

  • Iniciamos ambos nodos con el comando

LOADER> boot_ontap
  • El siguiente paso es introducir dirección ip, mascara de subred y puerta de enlace del interface de administración del nodo e0M


  • En cuanto ambos nodos tengan ip y visibilidad ejecutaremos el programa "system setup", que podemos descargar desde pagina de soporte de NetApp. Mediante el system setup podremos configurar la asignacion de discos de nuestro cluster.

Activo/Pasivo


Activo/Activo


En nuestro caso escogeremos la opción de activo/pasivo para tener el mayor número de discos trabajando en paralelo y mayor tamaño para datos

Espero que haya sido de vuestra ayuda y hasta la próxima. 

dimarts, 24 de desembre del 2013

Configurar VAAI NetApp y VMWare

Para poder tener la funcionalidad de VAAI (vStorage APIs for Array Integration) en nuestro entorno de visualización lo primero que debemos consultar es la versión de VMWare, no todas las versiones de vSphere permiten la integración con VAAI y VASA.

http://www.vmware.com/products/vsphere/features/storage-api.html


VAAI nos permitirá una descarga de funciones hacia el Storage pudiendo optimizar operaciones como clonado, snapshots, creación de discos eageredzeroed, etc.

Para su configuración tanto en NetApp como en VMWare debemos tener presente lo siguiente:

VMWare
  • ver si las siguientes opciones están habilitadas y con valor a 1, en caso de que el valor sea 0 hay que modificar el valor a 1.
           # esxcfg-advcfg -g /DataMover/HardwareAcceleratedInit
                                 Value of HardwareAcceleratedInit is 1
           # esxcfg-advcfg -g /VMFS3/HardwareAcceleratedLocking
                                 Value of HardwareAcceleratedLocking is 1
           # esxcfg-advcfg -g /DataMover/HardwareAcceleratedMove
                                 Value of HardwareAcceleratedMove is 1
  • Descargar el pluguin de NetApp https://support.netapp.com
  • Copiar el fichero .ZIP en los servidores ESXi con un cliente SFTP
  • Instalar el plug-in de VAAI
           esxcli software vib install -n NetAppNasPlugin -d file:///NetAppNasPlugin.v18.zip
  • reiniciar los servidores ESXi i comprobar en los datastores que aparece "supported" en la columna de "Hardware Acceleration"



NetApp
  • Modificar el paramero NFS
                options nfs.vstorage.enable on



dilluns, 31 de desembre del 2012

Como migrar un Servidor de Ficheros Windows a una NetApp mediante Open System Snap Vault (OSSV)

Para poder migrar nuestro servidor de ficheros actual a un NetappFAS Series primero es necesario activar en la FAS Series las licencias de SnapMirror, SnapVault Secondary y el protocolo CIFS  para sistemas Windows.

En este articulo se describe como migrar un servidor de ficheros Windows a una FAS Series mediante Open System Snap Vault (OSSV).

1. Una vez descargado el software OSSV Client (Requiere NOW ID) desde la pagina de soporte de Netapp https://support.netapp.com, instalamos el software siguiendo los pasos del asistente. Para mas información: 
2. En la FAS Series crear un volumen CIFS con capacidad suficiente para almacenar los datos sin deduplicar, Netapp permite agrandar y reducir volúmenes en caliente. Una vez el proceso de migración termine podremos reducir el espacio del volumen deduplicando la información.
3. Asegurarse que Sanpvault esta habilitado en la Netapp FAS Series 
               fas2220> snapvault status; options snapvault.enable on
4. Iniciar proceso de migración de datos en la Fas Series
               fas2220> snapvault start -S [source_hostname]:[source_path] [dest_path]  
5. Para Ver el estado de la migracion 
     fas2220> snapvault status
6. Si la migración de datos se realiza en varios días hay que actualizar la información con el comando 
     fas2220> snapvault update [destination_path]
7. Romper el proceso de migración y activar el volumen de la FAS Series como volumen CIFS en producción. Para ello hay que convertir el Qtree que ha creado snapvault a un Qtree de  replica.
NOTA: En Netapp los volumenes o Qtrees utilizados como Backup (Snapvault) no pueden ser utilizados en producción, para ello se tiene que quitar todas las referencias de replicación del volumen o Qtree.

1. Parar Snapvault 
                         fas2220> options snapvault.enable off

2. Detener Snapmirror 
                        fas2220>  snapmirror off

3. Pasar la Netapp FAS Series a modo diag y convertir el volumen Sanpvault en un Qtree de          Snapmirror
                       fas2220>  priv set diag

             fas2220> snapmirror convert

4. Salir del modo diag y activar Snapvault y Snapmirror
                       fas2220>  priv set admin
                       fas2220> options snapvault.enable on
                       fas2220> snapmirror on

5. Romper la replica de snapmirror
                      fas2220> snapmirror quiesce 
                      fas2220> snapmirror break "destino de replica"


Nota: romper la replica puede tardar varios minutos, todo dependerá del tamaño del volumen
6. Verificar que las relaciones de Snapmirror están rotas
                     fas2220> snapmirror status -l