Es mostren els missatges amb l'etiqueta de comentaris Storage. Mostrar tots els missatges
Es mostren els missatges amb l'etiqueta de comentaris Storage. Mostrar tots els missatges

dissabte, 22 d’abril del 2017

Configurar NetApp FAS2552/4 10G iSCSI Direct Attach en CDOT con VMware

Hola a todos,

En muchas de las implementaciones de almacenamiento nos encontramos que hay una buena aceptación en ampliar la velocidad de 1 Gb a 10Gb. A primera vista y sobre el papel encaja bien, normal multiplicamos por 10 el ancho de banda. Pero nos encontramos que no quieren invertir en electrónica de red por precio. Desde NetApp con las FAS25XX si escogemos la opción en 10G podemos implementar Direct Attach. Ahora bien esta implentación esta limitada a 2 hosts si queremos alta disponibilidad o 4 hosts sin alta disponibilidad.

Teniendo en cuenta que los servidores de hoy en día soportan 18 cores por procesador y hasta 384GB de RAM, muchas Empresas tienen de sobras para implementar una solución de virtualización en alta disponibilidad.

El modelo elegido de NetApp es el FAS2552 que dispone de dos controladoras y 6 puertos en cada una de ellas:
  • 4 puertos UTA2. (10G o 16FCP)
  • 2 puertos a 1Gb. 

De los puertos UTA2, 2 bocas las utilizaremos para la conexión Switchless del cluster data ontap y las otras 2 las utilizaremos para trafico SAN a 10Gb. Las 2 conexiones a 1Gb las podemos utilizar para para trafico CIFS, SnapManager o trafico iSCSI para peralizar backup mediante LAN FREE.


Empezamos con la implementación

Esta implementación se ha realizado mediante iSCSI porque será VMware quien se encarge de realizar el multipath.


Configuración de Broadcast Domains

Al tratarse de una configuración en Direct Attach contra dos servidores crearemos un dominio de broadcast por interfaz dejando el multipath para VMware.

En este punto definiremos si nuestros puertos de 10Gb trabajaran con JUMBO FRAMES o no. Mi recomendación es que se habiliten, pero debemos tener en cuenta que todos los elementos del circuito completo de cabina, switches y tarjeta de red lo soporten. En este caso solo necesitamos que este habilitado en el VMware.


Subnets

Una vez creado el broadcast domain crearemos un subnet para cada interfaz.

Network Interfaces

Ahora es el momento de definir las direcciones ip de cada puerto de 10Gb


iSCSI en SVM

Comprobar que están habilitados todos los LIFS en el protocolo de la SVM que tiene que dar servicio iSCSI.


Configuración en VMware

En VMware solo nos queda implementar el multipath de iSCSI que en el siguiente articulo podemos ver como se realiza dicha configuración.

Una vez implementado iSCSI binding solo nos queda presentar las LUNS a nuestros servidores ESXi y reescanear los discos en VMware.

Espero que sea de gran ayuda y hasta la próxima.

dimecres, 12 d’octubre del 2016

Asignar particiones de discos con NetApp ONTAP

Hola a todos,

Después de haber creado el cluster los sistemas entry level de NetApp FAS25XX y con version ONTAP9 por defecto particionarán los discos con dos particiones Root y SPARE, pero de forma automática el sistema asignara la parte de spare de forma simétrica a cada controladora.

  • Partición de root 
  • Partición de Spare 

Por ejemplo, si tenemos un FAS2552 con 4 discos SSD y 20 discos SAS, en que queremos crear un único agregado de todos los discos (One large Pool), no podremos el setup inicial asignara la partición de spare 10 discos mecánicos a la controladora A (nodo1 del cluster) y otros 10 a la controladora B (nodo 2 del cluster).


En muchos proyectos queremos asignar los 20 discos a una única controladora, pues vamos a ello.

  • Primero entraremos a la administración del cluster a través de la shell y entramos en modo diag con el comando "set diag"




  • Comprobaremos el estado de las particiones con el comando "Partition Show"

Con la siguiente información vemos que la partición de SPARE de los discos pares están asignados al NODO2del cluster "CLU02-02"


Y la partición de SPARE de los discos impares esta asignada al NODO1 del cluster "CLU02-01"


Ahora nos queda asignar las particiones al nodo que queramos en este caso asignaremos todos los discos al nodo1 del cluster "CLU02-01"

  • Primero entraremos a la shell del nodo del cluster. a través de la ip del nodo
  • Entraremos en modo diag con el comando "set diag"
  • asignaremos la partición de spare del nodo "CLU02-02" al nodo "CLU02-01" con el comando "partition assign -partition 1.0.4.P1 -owner CLU02-01 -force"
Una vez asignados todos los discos de SPARE al nodo1 "CLU02-01" ya podremos crear un agregado de todos los discos


Espero que haya sido de vuestra ayuda




dissabte, 28 de març del 2015

Como convertir una cabina NetApp FAS2200 o FAS2500 de 7-mode a CDOT 8.3 con ADP

Hola,

En el presente artículo explicaremos como actualizar nuestros sistemas de almacenamiento FAS2200 y 2500 de 7-mode a Cluster Data Ontap (CDOT) con Advanced Drive Partition (ADP).

Tenemos que tener presente que al realizar esta operación tendremos un perdida de la información si esta reside en los discos de la propia controladora, en caso de disponer bandejas adicionales deberemos mover los volúmenes que tengamos en producción a dichas bandejas.

Conversión a Cluster Data ontap

Primero debemos asegurarnos de que nuestra cabina está trabajando con la versión 8.2 Actualizar del sistema operativo, en caso de tener una versión inferior deberemos actualizar a la 8.2.

  • Mediante SSH ejecutamos la instrucción "sysconfig" para ver en que versión de sistema operativo de DataOntap estamos trabajando.
Una vez actualizamos tengamos nuestra cabina actualizada cambiaremos de 7-mode a Cluster Data Ontap (CDOT)

  • Conectaremos por cable serie a cada uno de las dos controladoras y las detendremos mediante el comando "Halt"
  • En la primera de las controladoras cambiaremos la variable que determina si el S.O es 7-mode o CDOT
LOADER> set-defaults
LOADER> setenv bootarg.init.boot_clustered true 
  • Iniciaremos el primer nodo con el comando
LOADER> boot_ontap
  • El siguiente paso es realizar un wipeconfig, para ello presionaremos CTRL-C para detener el proceso de arranque.
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos.


Este proceso tardará una serie de horas, en función del tamaño y de la cantidad de discos que tengamos (6 discos de 900 SAS 2 horas) y hay que realizarlo en ambas controladoras.

Actualizar a 8.3

Una vez realizado el Zeroed de los discos nuestros nodos aparecerán con el “cluster setup” para crear un nuevo cluster. Como el objetivo es implementar ADP y este solo esta soportado en la versión 8.3 cancelaremos el asistente de “Cluster Setup” con un CTRL-C.

Para actualizar la versión del sistema operativo en CDOT tenemos dos opciones, mediante el menú de arranque de cada nodo o por comandos del cluster. En el presente documento lo realizaremos mediante el menú de arranque porque son cabinas que no estaban trabajando en CDOT.


  • Primero asegurarnos que tenemos conexión de red en el interfaz e0M
  • Copiar el fichero de CDOT 8.3 a un servidor Web o FTP.
  • Reiniciaremos el primer nodo con el comando “system node reboot”
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 

*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Seleccionaremos la opción 7.
  • En los siguientes pasos no pedirá:
  • Por que interfaz queremos actualizar
  • Dirección IP
  • Mascara de Subred
  • Puerta de enlace
  • La dirección URL con el nombre del paquete a instalar


  • Una vez finalizado el proceso de instalación comprobaremos que la versión del S.O es 8.3 con el comando


::>system node image show

  • Detendremos el nodo con el comando

::>system node halt
  • Repetiremos estos pasos con el segundo nodo del Cluster

Quitar el propietario de los discos

Con los dos nodos detenidos tendremos que desasignar y quitar el propietario de los discos. Para ello necesitaremos realizar estas operaciones en los dos nodos.

  • Arrancaremos el primer nodo del cluster con el comando

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Entraremos en modo mantenimiento con la opción 5

  • Desasignaremos los discos y el propietario

*> storage release disks
*> disk remove_ownership all
  • Una vez realizadas estas operaciones en ambos nodos los tenedremos con el comando

*> Halt

Configurar ADP

  • Iniciamos el primer nodo

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C para realizar un wipeconfig

******************************** Press Ctrl-C for Boot Menu. ******************************** 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos. Esta vez el formateo es más rápido (10 discos 900 SAS 10 minutos) porque no existen agregados ni asignación de discos.
  • Mi recomendación es que nos esperemos delante de la pantalla y esperar a que se reinicie el nodo y detener el proceso de boot presionando CTRL-C

Starting AUTOBOOT press Ctrl-C to abort...

Pressing Ctrl-C  launches the LOADER/CFE prompt:
  • Realizar la misma operación el segundo nodo


En este punto  ya disponemos de 10 o 12 discos por nodod con el espacio reservado para el agregado root de cada nodo.

  • Iniciamos ambos nodos con el comando

LOADER> boot_ontap
  • El siguiente paso es introducir dirección ip, mascara de subred y puerta de enlace del interface de administración del nodo e0M


  • En cuanto ambos nodos tengan ip y visibilidad ejecutaremos el programa "system setup", que podemos descargar desde pagina de soporte de NetApp. Mediante el system setup podremos configurar la asignacion de discos de nuestro cluster.

Activo/Pasivo


Activo/Activo


En nuestro caso escogeremos la opción de activo/pasivo para tener el mayor número de discos trabajando en paralelo y mayor tamaño para datos

Espero que haya sido de vuestra ayuda y hasta la próxima. 

dimecres, 11 de març del 2015

Actualizar NetApp SnapCreator Software a 4.1

Hola a todos,

En el siguiente artículo nos centraremos en como actualizar nuestro servidor de SnapCreator a la versión 4.1.

En primer lugar tendremos que realizar un backup de nuestra base de datos de SnapCreator.
  • Parar los servicios de SnapCreator server y agent 
  • ver que puerto estamos usando para dar servicio.
    • Abrir el fichero cd /install_path/scServer4.1.0/engine/etc/snapcreator.properties
    • ver que puerto se esta utilizando

  • Copiar las carpetas:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\Logs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\etc
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\snapcreator
  • En caso de tener instalado el agente de snapcreator en el mismo servidor devermeos copiar la configuracion del agente
    • C:\Program Files\NetApp\Snap_Creator_Framework\scAgent4.0.x\config\agent.conf
Una vez ya hemos realizado nuestro backup procederemos a desinstalar la version de SnapCreator 
  • En versiones Windows desde agregar y quitar programas del panel de control
El siguiente paso ya es instalar la nueva version de NetApp SnapCreator

  • Durante el proceso de instalacion devemos tener en cuenta el puerto que utilizábamos en nuestra version anterior
  • Introduciremos las credenciales de nuestra controladora FAS

Una vez finalizada la instacion de la nueva version devermos restaurar los datos, para ello realizaremos los siguientes pasos:
  • Detener los servicios de SnapCreator
  • Borrar la carpeta 
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
  • Copiar las carpetas salvaguardadas en:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\logs
  • Abriremos una interfaz de comandos en la siguiente ruta
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine
  • Ejecutaremos la siguiente instruccion
    • java -jar snapcreator.jar -upgrade
  • Cuando el proceso de actualización termine arrancaremos los servicios de SnapCreator

Hasta la próxima

divendres, 3 d’octubre del 2014

Configurar SMB 3.0 en NetApp Clustered Data Ontap contra Hyper-V

Hola a todos, 

En el siguiente articulo hablaremos de como configurar nuestro Almacenamiento NetApp FAS con sistema operativo Clustered Ontap via SMB 3.0 contra entornos de virtualizacion en Hyper-V.

Primero tenemos que asegurarnos que tenemos los siguientes pre-requisitos:
  • Sistema de Almacenamiento FAS con versión 8.2 en Clustered Ontap.
  • Licencia CIFS en ambos nodos de Cluster
  • Configurar en nuestro cluster  Storage Virtual Machine que sirva datos via CIFS.
  • Rol de Hyper-V en Windows 2012R2.

Una vez disponemos de los pre-requisitos podemos proceder a la configuración en NetApp del Storage Virtual Machine, el directorio compartido y nuestro Host Hyper-V

Configuración del Clustered Data Ontap

Mediante conexión SSH Entraremos en modo avanzado y verificaremos que todas las opciones de SMB 3.0 están activas.
  • set advanced

Listar los Storage Virtual Machines que tenemos con CIFS para poder crear nuestro volumen.
  • cifs show

Listar todas las opciones de configuración de las Storage Virtual Machines que sirven CIFS.
  • vserver cifs options show


En las opciones de configuración de nuestro Storage Virtual Machine debemos tener habilitadas las siguientes opciones:
  • SMB3 Enabled  "vserver cifs options modify -vserver nacifs -smb3-enabled true"
  • Copy offload Enabled (ODX) "vserver cifs options modify -vserver nacifs -copy-offload-enabled true"
  • Shadowcopy enabled "vserver cifs options modify -vserver nacifs -shadowcopy-enabled true" 
La configuración de seguridad de Kerberos tiene que estar al mínimo de seguridad porque no necesitamos una negociación agresiva mediante Kerberos via SAN. La siguiente opción "Is referal" estará deshabilitada
  • Is Referal Enabled "vserver cifs options modify -vserver nacifs -is-referral-enabled false"

Una vez configuradas las opciones genéricas de nuestro Storage Virtual Machine ya podemos crear el volumen y las carpetas compartidas donde alojaremos nuestras maquinas virtuales.

Si la carpeta compartida donde alojaremos las maquinas virtuales la creamos de nuevo a través de onCommand system Manager debemos marcar la opción de continuous  availability para Hyper-V o SQL vía SMB3.0


En caso de aprovechar una carpeta compartida ya existente habrá que habilitar continuous available mediante comandos:
  • "vserver cifs share properties add -vserver CIFS_VOL1 -share-name VOL_VM1 -shareproperties continuously-available"

Ahora solo falta configurar que nuestros hosts Hyper-V apunten al directorio compartido de nuestro Clustered Ontap.

Configuración en Hyper-V

Para que las maquinas virtuales de nueva creacion trabajen contra el directorio compartido de nuestro Clustered Ontap es necesario cambiar en los valores por defecto de nuestro hypervisor el destino de las maquinas virtuales y sus discos.




A Partir de este momento ya podemos mover, clonar, copiar Maquinas con Hyper-V vía SMB 3.0 contra nuestro sistema de almacenamiento NetApp en Clustered Ontap y gracias a ODX cualquier operación de clonado o snapshot será nuestro sistema de almacenamiento quien trabaje liverando al hypervisor de este trabajo.

dimecres, 10 de setembre del 2014

Cambiar Numero de Serie del Simulador de NetApp Clustered Ontap 8.2

Hola a todos,

Si queremos hacer pruebas con los sistemas de almacenamiento de NetApp podemos decargarnos los simuladores con todas las funcionalidades.

Al descargarnos el simulador a través de la Web de soporte de NetApp podemos escoger entre la version de 7-Mode o CDOT.

El problema que nos encontramos es que al instalar una pareja de nodos de Clusterded Ontap tenemos que cambiar el numero de serie para el segundo nodo porque el el simulador siempre tiene el mismo numeor de serie. Sino cambiamos el numero de serie no podremos introducir las licencias y no podremos aprovechar todas las funcionalidades de la solucion (SnapMirror, SnapManager, SnapRestore, SnapProtect, CIFS, NFS, ect...).

Primero tenemos que arrancar el primer nodo y ejecutar los siguientes parasos a través de la consola de WMware Workstation, Fusion o Player
  • Esperaremos a que nos pregunte si queremos presionar CTRL+C y lo pulsamos para que entre en el boot menu.
  • En las opciones que nos muestre seleccionaremos la numero 4 para reinizializar todos los discos.


Una vez el primer nodo esta preparado para el asistente de creacion del cluster arrancaremos nuestro segundo nodo y a través de la consola de WMware Workstation, Fusion o Player esperamos el siguiente mesaje.
  • "Hit [Enter] to boot immediately, or any other for command prompt. Booting in 10 seconds..."
  • Presionamos qualquier tecla y entraremos en la consola de comandos apareciendo VLOADER> donde escribiremos lo sigiente tal qual.
              setenv SYS_SERIAL_NUM 4034389-06-2
              setenv bootarg.nvram.sysid 4034389062
              boot

Para comprobar que los nuemeros de serie estan instalados de forma correcta ejecutaremos el comando "printenv" que nos mostrará todas las variables del sistema.


En cuanto arranque el segundo nodo deberemos inicializar los discos con  la opción 4 del boot menu.

En este punto ya podemos crear nuestro primer cluster con el simulador que nos proporciona NetApp.

Muchas gracias.


dissabte, 24 de maig del 2014

Configuración de volúmenes con NetApp SANtricity mediante Fiber Channel

Para poder trabajar con los modelos E-Serie de NetApp tenemos que tener instalado el software de SANtricity que encontraremos en la web de de soporte de NetApp en cuanto adquiramos nuestra cabina.

En este post configuraremos un volumen mediante fibra óptica contra un volumen Windows. El Volumen estará trabajando en un RAID DDP (Dynamic Disk Pool).

Abrimos la consola de SANtricty conectando contra la cabina E2724 y nos situamos sobre la pestaña de Storage & Copy Services, en nuestro caso no aparace un Disk_Pool de 9,6 TB y un espacio libre de 2,9 TB
 
Click con el botón derecho del ratón y Create Volume...
Introducimos un nombre en el volumen y no da a escoger las siguientes opcciones de configuracón:
  • Thin: poder presentar mas espacio del que realmente se dispone.
  • Data assurance (DA): que la cabina analice la integridad de los datos para corregir posibles fallos.
  • SSD Cache: poder utilizar discos de SSD para cache
  • Dynamic Cache: utilizar la cache para accesos I/O Secuenciales.

Una vez creado el volumen ya podemos presentarlo a los hosts, para ello lo primero será crear grupos servidores en función del servicio, en esta caso crearemos un grupo de windows y lo presentaremos a su host mediante FC.

Dentro de SANtricity en la pestaña de Hosts Mappings crearemos un grupo de servidores con el mismo sistema operativo por si hay que añadir mas servidores a nuestro volumen no será necesario volver a configurar un grupo.

Click con el botón derecho del ratón  en Default Group -> Define -> Host Group

Se define el nombre del grupo y OK


Una vez definido el grupo asignaremos la en volumen  al grupo especificado que tipo de partición tiene que ser, UNIX, Windows, VMWare, etc... para ello en la misma pestaña de Host Mappings aparece el volumen creado pero no definido, click con el botón derecho de ratón  y Add LUN Mapping... en el siguiente paso del asistente nos pregunta a que grupo o host lo queremos asignar, seleccionamos el siguiente número de LUN  disponible y add.

Con esta configuración todos los hosts que añadimos a este grupo de forma automática se le presentarán los volúmenes definidos. Para añadir hosts a un grupo nos situamos en el grupo de servidores y con el botón derecho del ratón Define --> Host
Especificamos que tipo de conexión FC, SAS, iSCSI, en nuestro caso seleccionamos FC, en caso de tener las zonas de los switches de fibra configuradas para que la cabina ve los WWN de los hosts seleccionamos la opción de ver los identificadores conocidos, si aún no tenemos presentados los WWN para que los autodetecte lo podemos añadir de forma manual. 

Añadimos un alias identificador del Host y al finalizar el asistente nos preguntará que sistema operativo tiene el host que añadimos. Es muy importante escoger el sistema operativo correcto para que la LUN tenga una alineación correcta con el sistema de archivos del servidor.

Ahora solo falta ver si nuestro servidor ve el disco presentado.

divendres, 16 de maig del 2014

Como Montar un SnapShot de NetApp mediante VSC CLI


Recuperar una maquina virtual mediante la consola de VSC no es un problema siempre que tengamos acceso al vCenter. En este caso el problema surgió en una instalación en el que se tenia que recuperar una maquina urgente y sin conexión al vCenter.

Para poder recuperar el backup desde el servidor donde esta instalado el SnapManager para VI abriremos una interfaz de comandos y nos situaremos en la siguiente ruta 

  • "C:\Program Files\NetApp\Virtual Storage Console\smvi\cli\bin
Escribimos la instrucción para que nos muestre los backups realizados por el SnapManager de VI
  • smvi backup list -id NETAPP_VOL3

Escribimos la siguiente instrucción para montar el volumen en un esx
  • smvi backup mount -backup-name "backup_Backup VM daily VOL3_20140404030026" -esx-server esx.netapp.local. 
Una vez montado el volumen en nuestro servidor ESX nos aparecerá de la siguiente forma.



En este punto podemos copiar la VM a un datastore de producción o inventariarla y ponerla en funcionamiento.

En caso de querer montar el volumen mediante Flexclone, nos conectaremos a la cabina mediante SSH y ejecutaremos los siguientes comandos:

Primero veremos cuantos snapshots hay en un volumen

  • snap list LABNETAPP

Una vez identificados el snapshot que queremos restaurar ejecutamos el siguiente comando
  •  vol clone create LABNETAPP_CLONE -s none -b LABNETAPP snapcreator_vm-hourly_20140416131108


Abrimos el oncommand system manager de NetApp y nos aparece el volumen clonado. Al ser un volumen VMWare montamos el datastore y ya podemos copiar a otro datastore la maquina virtual o la inventariamos para ponerla en producción.

P.D. Acordaros de desmontar el volumen y el snapshot!!!!!