dissabte, 22 d’abril del 2017

Configurar NetApp FAS2552/4 10G iSCSI Direct Attach en CDOT con VMware

Hola a todos,

En muchas de las implementaciones de almacenamiento nos encontramos que hay una buena aceptación en ampliar la velocidad de 1 Gb a 10Gb. A primera vista y sobre el papel encaja bien, normal multiplicamos por 10 el ancho de banda. Pero nos encontramos que no quieren invertir en electrónica de red por precio. Desde NetApp con las FAS25XX si escogemos la opción en 10G podemos implementar Direct Attach. Ahora bien esta implentación esta limitada a 2 hosts si queremos alta disponibilidad o 4 hosts sin alta disponibilidad.

Teniendo en cuenta que los servidores de hoy en día soportan 18 cores por procesador y hasta 384GB de RAM, muchas Empresas tienen de sobras para implementar una solución de virtualización en alta disponibilidad.

El modelo elegido de NetApp es el FAS2552 que dispone de dos controladoras y 6 puertos en cada una de ellas:
  • 4 puertos UTA2. (10G o 16FCP)
  • 2 puertos a 1Gb. 

De los puertos UTA2, 2 bocas las utilizaremos para la conexión Switchless del cluster data ontap y las otras 2 las utilizaremos para trafico SAN a 10Gb. Las 2 conexiones a 1Gb las podemos utilizar para para trafico CIFS, SnapManager o trafico iSCSI para peralizar backup mediante LAN FREE.


Empezamos con la implementación

Esta implementación se ha realizado mediante iSCSI porque será VMware quien se encarge de realizar el multipath.


Configuración de Broadcast Domains

Al tratarse de una configuración en Direct Attach contra dos servidores crearemos un dominio de broadcast por interfaz dejando el multipath para VMware.

En este punto definiremos si nuestros puertos de 10Gb trabajaran con JUMBO FRAMES o no. Mi recomendación es que se habiliten, pero debemos tener en cuenta que todos los elementos del circuito completo de cabina, switches y tarjeta de red lo soporten. En este caso solo necesitamos que este habilitado en el VMware.


Subnets

Una vez creado el broadcast domain crearemos un subnet para cada interfaz.

Network Interfaces

Ahora es el momento de definir las direcciones ip de cada puerto de 10Gb


iSCSI en SVM

Comprobar que están habilitados todos los LIFS en el protocolo de la SVM que tiene que dar servicio iSCSI.


Configuración en VMware

En VMware solo nos queda implementar el multipath de iSCSI que en el siguiente articulo podemos ver como se realiza dicha configuración.

Una vez implementado iSCSI binding solo nos queda presentar las LUNS a nuestros servidores ESXi y reescanear los discos en VMware.

Espero que sea de gran ayuda y hasta la próxima.

dimarts, 27 de desembre del 2016

Aumentar espacio del disco de logs del vCenter Server Appliance

La nueva versión del VCSA (vCenter Server Appliance) incorpora hasta 11 discos, con esta separación la VCSA diversifica para cada disco un función determinada y sin afectar al resto de servicios.

Una de las particiones que acostumbra a llenarse as es la de los logs de vmware, esta hace que aparezcan alertas de salud en vCenter de forma constante.

Aumentar el tamaño de la partición en muy sencillo y no requiere de parada de servicio:

1.- Identificar el disco de LOGS

Para identificar el disco de LOGS tenemos que entrar en nuestro VCSA mediante SSH y activar la consola SHELL

> shell.set --enable true
> shell

2.-  Ver el espacio libre que tenemos en cada partición

# df -h


3.- Identificar a que disco corresponde


# lsblk


4.- Identificar la partición SDE a que disco corresponde

# lsscsi


5.- Aumentar el tamaño del disco


6.- Extender la partición

# vpxd_servicecfg storage lvm autogrow


7.- Comprobar el estado de nuestro VCSA


Espero que haya sido de vuestra ayuda, un saludo y hasta la próxima


dimecres, 12 d’octubre del 2016

Asignar particiones de discos con NetApp ONTAP

Hola a todos,

Después de haber creado el cluster los sistemas entry level de NetApp FAS25XX y con version ONTAP9 por defecto particionarán los discos con dos particiones Root y SPARE, pero de forma automática el sistema asignara la parte de spare de forma simétrica a cada controladora.

  • Partición de root 
  • Partición de Spare 

Por ejemplo, si tenemos un FAS2552 con 4 discos SSD y 20 discos SAS, en que queremos crear un único agregado de todos los discos (One large Pool), no podremos el setup inicial asignara la partición de spare 10 discos mecánicos a la controladora A (nodo1 del cluster) y otros 10 a la controladora B (nodo 2 del cluster).


En muchos proyectos queremos asignar los 20 discos a una única controladora, pues vamos a ello.

  • Primero entraremos a la administración del cluster a través de la shell y entramos en modo diag con el comando "set diag"




  • Comprobaremos el estado de las particiones con el comando "Partition Show"

Con la siguiente información vemos que la partición de SPARE de los discos pares están asignados al NODO2del cluster "CLU02-02"


Y la partición de SPARE de los discos impares esta asignada al NODO1 del cluster "CLU02-01"


Ahora nos queda asignar las particiones al nodo que queramos en este caso asignaremos todos los discos al nodo1 del cluster "CLU02-01"

  • Primero entraremos a la shell del nodo del cluster. a través de la ip del nodo
  • Entraremos en modo diag con el comando "set diag"
  • asignaremos la partición de spare del nodo "CLU02-02" al nodo "CLU02-01" con el comando "partition assign -partition 1.0.4.P1 -owner CLU02-01 -force"
Una vez asignados todos los discos de SPARE al nodo1 "CLU02-01" ya podremos crear un agregado de todos los discos


Espero que haya sido de vuestra ayuda




dimarts, 1 de març del 2016

Que Son los VVOLS???

Para poder comprender esta nueva funcionalidad de VMware, primero debemos entender que hasta ahora en un sistema de almacenamiento toda la administración y operación de las LUNs (Bloque) o Volúmenes (NFS) es dependiente del administrador de la solución.

Cuando en VMware necesitamos realizar operaciones como Snapshots o clonacion el sistema de almacenamiento no sabe que maquinas virtuales están solicitando estas operaciones. Esto supone que un administrador de vSphere tiene que trabajar de la mano del administrador de almacenamiento para configurar los DataStores, el rendimiento de los mismos, capacidad, protección, ect...
Con los VVols de VMware podemos solucionar estas problemáticas tratando cada maquina virtual como un objeto dentro de nuestro sistema de almacenamiento, pudiendo aplicar políticas de rendimiento y protección en función de la maquina virtual.

Como funcionan los VVols?

Los VVOLS realizan un mapping de cada virtual disk, snapshot o clonación de la maquina virtual contra el sistema de almacenamiento dándole todo el control de la operación sin que sea el vSphere quien tenga que realizar la operación.

Al crear un volumen por cada virtual disk, Snapshot o clonación podemos aplicar políticas en función de cada tarea y podemos asignar recursos o requerimientos por maquina virtual y no por Datastore.
Como vemos, los VVols es cun cambio dentro del mundo de la virtualización, donde ahora son las maquinas virtuales y no los datastores junto con el almaceniento quienes tienen la gestión y el control del contenido de los virtual disks.
Hasta la proxima

dissabte, 28 de març del 2015

Como convertir una cabina NetApp FAS2200 o FAS2500 de 7-mode a CDOT 8.3 con ADP

Hola,

En el presente artículo explicaremos como actualizar nuestros sistemas de almacenamiento FAS2200 y 2500 de 7-mode a Cluster Data Ontap (CDOT) con Advanced Drive Partition (ADP).

Tenemos que tener presente que al realizar esta operación tendremos un perdida de la información si esta reside en los discos de la propia controladora, en caso de disponer bandejas adicionales deberemos mover los volúmenes que tengamos en producción a dichas bandejas.

Conversión a Cluster Data ontap

Primero debemos asegurarnos de que nuestra cabina está trabajando con la versión 8.2 Actualizar del sistema operativo, en caso de tener una versión inferior deberemos actualizar a la 8.2.

  • Mediante SSH ejecutamos la instrucción "sysconfig" para ver en que versión de sistema operativo de DataOntap estamos trabajando.
Una vez actualizamos tengamos nuestra cabina actualizada cambiaremos de 7-mode a Cluster Data Ontap (CDOT)

  • Conectaremos por cable serie a cada uno de las dos controladoras y las detendremos mediante el comando "Halt"
  • En la primera de las controladoras cambiaremos la variable que determina si el S.O es 7-mode o CDOT
LOADER> set-defaults
LOADER> setenv bootarg.init.boot_clustered true 
  • Iniciaremos el primer nodo con el comando
LOADER> boot_ontap
  • El siguiente paso es realizar un wipeconfig, para ello presionaremos CTRL-C para detener el proceso de arranque.
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos.


Este proceso tardará una serie de horas, en función del tamaño y de la cantidad de discos que tengamos (6 discos de 900 SAS 2 horas) y hay que realizarlo en ambas controladoras.

Actualizar a 8.3

Una vez realizado el Zeroed de los discos nuestros nodos aparecerán con el “cluster setup” para crear un nuevo cluster. Como el objetivo es implementar ADP y este solo esta soportado en la versión 8.3 cancelaremos el asistente de “Cluster Setup” con un CTRL-C.

Para actualizar la versión del sistema operativo en CDOT tenemos dos opciones, mediante el menú de arranque de cada nodo o por comandos del cluster. En el presente documento lo realizaremos mediante el menú de arranque porque son cabinas que no estaban trabajando en CDOT.


  • Primero asegurarnos que tenemos conexión de red en el interfaz e0M
  • Copiar el fichero de CDOT 8.3 a un servidor Web o FTP.
  • Reiniciaremos el primer nodo con el comando “system node reboot”
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 

*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Seleccionaremos la opción 7.
  • En los siguientes pasos no pedirá:
  • Por que interfaz queremos actualizar
  • Dirección IP
  • Mascara de Subred
  • Puerta de enlace
  • La dirección URL con el nombre del paquete a instalar


  • Una vez finalizado el proceso de instalación comprobaremos que la versión del S.O es 8.3 con el comando


::>system node image show

  • Detendremos el nodo con el comando

::>system node halt
  • Repetiremos estos pasos con el segundo nodo del Cluster

Quitar el propietario de los discos

Con los dos nodos detenidos tendremos que desasignar y quitar el propietario de los discos. Para ello necesitaremos realizar estas operaciones en los dos nodos.

  • Arrancaremos el primer nodo del cluster con el comando

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C 
*******************************
* Press Ctrl-C for Boot Menu. *
******************************* 
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)?

  • Entraremos en modo mantenimiento con la opción 5

  • Desasignaremos los discos y el propietario

*> storage release disks
*> disk remove_ownership all
  • Una vez realizadas estas operaciones en ambos nodos los tenedremos con el comando

*> Halt

Configurar ADP

  • Iniciamos el primer nodo

LOADER> boot_ontap
  • El siguiente paso es detener el proceso de arranque mediante el CTRL-C para realizar un wipeconfig

******************************** Press Ctrl-C for Boot Menu. ******************************** 
  • Para realizar el wipeconfig presionaremos la opción 4 del menú. Nos advertirá de si estamos seguros de la perdida de la información, la controladora se reiniciará y empezará el formateo de discos. Esta vez el formateo es más rápido (10 discos 900 SAS 10 minutos) porque no existen agregados ni asignación de discos.
  • Mi recomendación es que nos esperemos delante de la pantalla y esperar a que se reinicie el nodo y detener el proceso de boot presionando CTRL-C

Starting AUTOBOOT press Ctrl-C to abort...

Pressing Ctrl-C  launches the LOADER/CFE prompt:
  • Realizar la misma operación el segundo nodo


En este punto  ya disponemos de 10 o 12 discos por nodod con el espacio reservado para el agregado root de cada nodo.

  • Iniciamos ambos nodos con el comando

LOADER> boot_ontap
  • El siguiente paso es introducir dirección ip, mascara de subred y puerta de enlace del interface de administración del nodo e0M


  • En cuanto ambos nodos tengan ip y visibilidad ejecutaremos el programa "system setup", que podemos descargar desde pagina de soporte de NetApp. Mediante el system setup podremos configurar la asignacion de discos de nuestro cluster.

Activo/Pasivo


Activo/Activo


En nuestro caso escogeremos la opción de activo/pasivo para tener el mayor número de discos trabajando en paralelo y mayor tamaño para datos

Espero que haya sido de vuestra ayuda y hasta la próxima. 

dimecres, 11 de març del 2015

Actualizar NetApp SnapCreator Software a 4.1

Hola a todos,

En el siguiente artículo nos centraremos en como actualizar nuestro servidor de SnapCreator a la versión 4.1.

En primer lugar tendremos que realizar un backup de nuestra base de datos de SnapCreator.
  • Parar los servicios de SnapCreator server y agent 
  • ver que puerto estamos usando para dar servicio.
    • Abrir el fichero cd /install_path/scServer4.1.0/engine/etc/snapcreator.properties
    • ver que puerto se esta utilizando

  • Copiar las carpetas:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\Logs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\etc
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.0.x\engine\snapcreator
  • En caso de tener instalado el agente de snapcreator en el mismo servidor devermeos copiar la configuracion del agente
    • C:\Program Files\NetApp\Snap_Creator_Framework\scAgent4.0.x\config\agent.conf
Una vez ya hemos realizado nuestro backup procederemos a desinstalar la version de SnapCreator 
  • En versiones Windows desde agregar y quitar programas del panel de control
El siguiente paso ya es instalar la nueva version de NetApp SnapCreator

  • Durante el proceso de instalacion devemos tener en cuenta el puerto que utilizábamos en nuestra version anterior
  • Introduciremos las credenciales de nuestra controladora FAS

Una vez finalizada la instacion de la nueva version devermos restaurar los datos, para ello realizaremos los siguientes pasos:
  • Detener los servicios de SnapCreator
  • Borrar la carpeta 
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
  • Copiar las carpetas salvaguardadas en:
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\snapcreator
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\configs
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine\logs
  • Abriremos una interfaz de comandos en la siguiente ruta
    • C:\Program Files\NetApp\Snap_Creator_Framework\scServer4.1.0\engine
  • Ejecutaremos la siguiente instruccion
    • java -jar snapcreator.jar -upgrade
  • Cuando el proceso de actualización termine arrancaremos los servicios de SnapCreator

Hasta la próxima

dilluns, 2 de febrer del 2015

Como Borrar una replica en la BBDD de vSphere Replication

Hola a todos,

En el siguiente articulo os explicaré como borrar una réplica de nuestro vSphere Replication que no podemos eliminar porque nuestra máquina virtual ya no existe o no tenemos otra forma de borrarla.

En primer lugar realizaremos un SnapShot de nuestro appliance de replicación i nos conectaremos por SSH a nuestro appliance de replicacion i ejecutamos los siguientes comandos:
  • Nos posicionamos en el directorio de la BBDD "cd /opt/vmware/vpostgres"

  • Listamos el contenido "ls -l" para ver la version de la BBDD que tenemos instalada, en nuestro caso 1.0

  • Nos posicionamos dentro del directorio "cd /opt/vmware/vpostgres/1.0/bin"

  • Entramos en la BBDD de postgres "./psql -U vrmsdb"

  • Ejecutamos esta consulta: 


SELECT a.group_movalue AS "PRIMARY GID", b.name AS "VM Name", 'https://' || c.address || ':8043/mob/?moid=' || a.group_movalue || '&vmodl=1' AS "Link to Paste" FROM primaryvirtualmachineentity a, virtualmachineentity b, localserverentity c WHERE a.movalue = b.movalue ORDER BY name;
  • Nos muestra el siguiente resultado:




  • Abrimos nuestro navegador y accedemos a la URL que hemos copiado

  • Seleccionamos la opción Destroy


  • Seleccionamos la opción "destroy"
A este punto ya no tendriamos que tener la replica de nuestra Maquina Virtual, y si todo funciona de forma correcta ya podemos borrar nuestro SnapShot.

Espero que haya sido de vuestra ayuda y hasta la próxima

divendres, 3 d’octubre del 2014

Configurar SMB 3.0 en NetApp Clustered Data Ontap contra Hyper-V

Hola a todos, 

En el siguiente articulo hablaremos de como configurar nuestro Almacenamiento NetApp FAS con sistema operativo Clustered Ontap via SMB 3.0 contra entornos de virtualizacion en Hyper-V.

Primero tenemos que asegurarnos que tenemos los siguientes pre-requisitos:
  • Sistema de Almacenamiento FAS con versión 8.2 en Clustered Ontap.
  • Licencia CIFS en ambos nodos de Cluster
  • Configurar en nuestro cluster  Storage Virtual Machine que sirva datos via CIFS.
  • Rol de Hyper-V en Windows 2012R2.

Una vez disponemos de los pre-requisitos podemos proceder a la configuración en NetApp del Storage Virtual Machine, el directorio compartido y nuestro Host Hyper-V

Configuración del Clustered Data Ontap

Mediante conexión SSH Entraremos en modo avanzado y verificaremos que todas las opciones de SMB 3.0 están activas.
  • set advanced

Listar los Storage Virtual Machines que tenemos con CIFS para poder crear nuestro volumen.
  • cifs show

Listar todas las opciones de configuración de las Storage Virtual Machines que sirven CIFS.
  • vserver cifs options show


En las opciones de configuración de nuestro Storage Virtual Machine debemos tener habilitadas las siguientes opciones:
  • SMB3 Enabled  "vserver cifs options modify -vserver nacifs -smb3-enabled true"
  • Copy offload Enabled (ODX) "vserver cifs options modify -vserver nacifs -copy-offload-enabled true"
  • Shadowcopy enabled "vserver cifs options modify -vserver nacifs -shadowcopy-enabled true" 
La configuración de seguridad de Kerberos tiene que estar al mínimo de seguridad porque no necesitamos una negociación agresiva mediante Kerberos via SAN. La siguiente opción "Is referal" estará deshabilitada
  • Is Referal Enabled "vserver cifs options modify -vserver nacifs -is-referral-enabled false"

Una vez configuradas las opciones genéricas de nuestro Storage Virtual Machine ya podemos crear el volumen y las carpetas compartidas donde alojaremos nuestras maquinas virtuales.

Si la carpeta compartida donde alojaremos las maquinas virtuales la creamos de nuevo a través de onCommand system Manager debemos marcar la opción de continuous  availability para Hyper-V o SQL vía SMB3.0


En caso de aprovechar una carpeta compartida ya existente habrá que habilitar continuous available mediante comandos:
  • "vserver cifs share properties add -vserver CIFS_VOL1 -share-name VOL_VM1 -shareproperties continuously-available"

Ahora solo falta configurar que nuestros hosts Hyper-V apunten al directorio compartido de nuestro Clustered Ontap.

Configuración en Hyper-V

Para que las maquinas virtuales de nueva creacion trabajen contra el directorio compartido de nuestro Clustered Ontap es necesario cambiar en los valores por defecto de nuestro hypervisor el destino de las maquinas virtuales y sus discos.




A Partir de este momento ya podemos mover, clonar, copiar Maquinas con Hyper-V vía SMB 3.0 contra nuestro sistema de almacenamiento NetApp en Clustered Ontap y gracias a ODX cualquier operación de clonado o snapshot será nuestro sistema de almacenamiento quien trabaje liverando al hypervisor de este trabajo.

dimecres, 10 de setembre del 2014

Cambiar Numero de Serie del Simulador de NetApp Clustered Ontap 8.2

Hola a todos,

Si queremos hacer pruebas con los sistemas de almacenamiento de NetApp podemos decargarnos los simuladores con todas las funcionalidades.

Al descargarnos el simulador a través de la Web de soporte de NetApp podemos escoger entre la version de 7-Mode o CDOT.

El problema que nos encontramos es que al instalar una pareja de nodos de Clusterded Ontap tenemos que cambiar el numero de serie para el segundo nodo porque el el simulador siempre tiene el mismo numeor de serie. Sino cambiamos el numero de serie no podremos introducir las licencias y no podremos aprovechar todas las funcionalidades de la solucion (SnapMirror, SnapManager, SnapRestore, SnapProtect, CIFS, NFS, ect...).

Primero tenemos que arrancar el primer nodo y ejecutar los siguientes parasos a través de la consola de WMware Workstation, Fusion o Player
  • Esperaremos a que nos pregunte si queremos presionar CTRL+C y lo pulsamos para que entre en el boot menu.
  • En las opciones que nos muestre seleccionaremos la numero 4 para reinizializar todos los discos.


Una vez el primer nodo esta preparado para el asistente de creacion del cluster arrancaremos nuestro segundo nodo y a través de la consola de WMware Workstation, Fusion o Player esperamos el siguiente mesaje.
  • "Hit [Enter] to boot immediately, or any other for command prompt. Booting in 10 seconds..."
  • Presionamos qualquier tecla y entraremos en la consola de comandos apareciendo VLOADER> donde escribiremos lo sigiente tal qual.
              setenv SYS_SERIAL_NUM 4034389-06-2
              setenv bootarg.nvram.sysid 4034389062
              boot

Para comprobar que los nuemeros de serie estan instalados de forma correcta ejecutaremos el comando "printenv" que nos mostrará todas las variables del sistema.


En cuanto arranque el segundo nodo deberemos inicializar los discos con  la opción 4 del boot menu.

En este punto ya podemos crear nuestro primer cluster con el simulador que nos proporciona NetApp.

Muchas gracias.


dilluns, 8 de setembre del 2014

Instalación de SP3 en Exchange 2010

Para realizar una correcta instalación del SP3 de Exchange 2010 primero debemos tener clara que topología de Exchange tenemos.

Para detectar la topología de Exchange en la poweshell escribimos el siguiente comando:


  • get-Exchangeserver | select name,ServerRole,Admin* | fl 

En caso de tener una organización con diferentes servidores y que cada uno de ellos alberga una ROL de Exchange el orden de aplicación del Service Pack es el siguiente:

  • Client Access Server
  • Hub Transport
  • Mailbox
  • Unified Messaging
Antes de instalar SP3 hay que chequear una serie de pre-requisitos:
  • Descargar Excahnge 2010SP3 offline
  • Añadir compatibilidad com WMI de IIS 6




  • Borrar los logs de instalaciones anteriores C:\ExchangeSetupLogs
  • Detetener servicios de terceros o SCOM
Instalación en el Client Acces

Para instalar SP3 en un sevidor de acceso configurado en NLB primero tenemos que sacar el host del NLB para que no acepte peticiones.

Para ello tenemos dos formas stop y drainstop
  • Stop: Detiene el nodo del NLB desconectando todas las sesiones
  • DrainSotp: El Host no acepta peticiones y las activas se iran reconectado contra el siguiente nodo del NLB.



comprobamos que el hosts este detenido

Ahora ya podemos ejecutar el setup del SP3 en el CAS Array del primer nodo del cluster NLB mediante el interfaz grafico o por comandos setup /m:upgrade

Una vez actualizado el hosts ya podemos arrancar el nodo dentro del cluster NLB y proceder a la instalación del siguiente nodo.



Instalación en los servidores de buzón en DAG (Database Availavility Groups)

la ventaja de tener las bases de datos en alta disponibilidad a parte de tener redundacia en caso de fallo, es poder instalar los service packs sin parada de servicio.

Primero detectar las BBDD activas en la organización para poder determinar en que servidor estan activas las BBDD 

        Get-MailboxDatabase

Liverar el primer servidor de BBDD activas

        Move-ActiveMailboxDatabase "BBDD Name" -ActivateonServer "EX server"

Mediante el comando Get-MailboxDatabase comprobamos que las BBDD se han movido de forma correcta

Bloquear el servidor para que no se autoactive la copia de las bases de datos

        Set-MailboxServer "Server" -DatabaseCopyAutoActivationPolicy Blocked

Poner nuestro servidor exchange en modo mantenimiento, Si tenemos nuestro exchange con SP1 en el directorio scripts ya existe un script que nos realiza todas las tareas de forma automática.

        .\StartDagServerMaintenance.ps1 -servername "Server"

  • Suspende la copia de las  bases de datos 
  • Pausa el nodo dentro del cluster
  • Suspende la activacion de qualquier base de datos 

Ya podemos actualizar el SP3 en el primer servidor de Mailbox

Una vez actualizado nuestro servidor ya podemos poner nuestro servidor en activo para poder recivir copias de las BBDD

        Set-MailboxServer "Server" -DatabaseCopyAutoActivationPolicy Unrestricted

Activamos nuestro servidor dentro del cluster con el scrpipt ya pre-definido en el directorio scripts.

         .\StopDagServerMaintenance.ps1 -servername "Server"

espero que sea de vuestra ayuda

dissabte, 24 de maig del 2014

Configuración de volúmenes con NetApp SANtricity mediante Fiber Channel

Para poder trabajar con los modelos E-Serie de NetApp tenemos que tener instalado el software de SANtricity que encontraremos en la web de de soporte de NetApp en cuanto adquiramos nuestra cabina.

En este post configuraremos un volumen mediante fibra óptica contra un volumen Windows. El Volumen estará trabajando en un RAID DDP (Dynamic Disk Pool).

Abrimos la consola de SANtricty conectando contra la cabina E2724 y nos situamos sobre la pestaña de Storage & Copy Services, en nuestro caso no aparace un Disk_Pool de 9,6 TB y un espacio libre de 2,9 TB
 
Click con el botón derecho del ratón y Create Volume...
Introducimos un nombre en el volumen y no da a escoger las siguientes opcciones de configuracón:
  • Thin: poder presentar mas espacio del que realmente se dispone.
  • Data assurance (DA): que la cabina analice la integridad de los datos para corregir posibles fallos.
  • SSD Cache: poder utilizar discos de SSD para cache
  • Dynamic Cache: utilizar la cache para accesos I/O Secuenciales.

Una vez creado el volumen ya podemos presentarlo a los hosts, para ello lo primero será crear grupos servidores en función del servicio, en esta caso crearemos un grupo de windows y lo presentaremos a su host mediante FC.

Dentro de SANtricity en la pestaña de Hosts Mappings crearemos un grupo de servidores con el mismo sistema operativo por si hay que añadir mas servidores a nuestro volumen no será necesario volver a configurar un grupo.

Click con el botón derecho del ratón  en Default Group -> Define -> Host Group

Se define el nombre del grupo y OK


Una vez definido el grupo asignaremos la en volumen  al grupo especificado que tipo de partición tiene que ser, UNIX, Windows, VMWare, etc... para ello en la misma pestaña de Host Mappings aparece el volumen creado pero no definido, click con el botón derecho de ratón  y Add LUN Mapping... en el siguiente paso del asistente nos pregunta a que grupo o host lo queremos asignar, seleccionamos el siguiente número de LUN  disponible y add.

Con esta configuración todos los hosts que añadimos a este grupo de forma automática se le presentarán los volúmenes definidos. Para añadir hosts a un grupo nos situamos en el grupo de servidores y con el botón derecho del ratón Define --> Host
Especificamos que tipo de conexión FC, SAS, iSCSI, en nuestro caso seleccionamos FC, en caso de tener las zonas de los switches de fibra configuradas para que la cabina ve los WWN de los hosts seleccionamos la opción de ver los identificadores conocidos, si aún no tenemos presentados los WWN para que los autodetecte lo podemos añadir de forma manual. 

Añadimos un alias identificador del Host y al finalizar el asistente nos preguntará que sistema operativo tiene el host que añadimos. Es muy importante escoger el sistema operativo correcto para que la LUN tenga una alineación correcta con el sistema de archivos del servidor.

Ahora solo falta ver si nuestro servidor ve el disco presentado.

divendres, 16 de maig del 2014

Como Montar un SnapShot de NetApp mediante VSC CLI


Recuperar una maquina virtual mediante la consola de VSC no es un problema siempre que tengamos acceso al vCenter. En este caso el problema surgió en una instalación en el que se tenia que recuperar una maquina urgente y sin conexión al vCenter.

Para poder recuperar el backup desde el servidor donde esta instalado el SnapManager para VI abriremos una interfaz de comandos y nos situaremos en la siguiente ruta 

  • "C:\Program Files\NetApp\Virtual Storage Console\smvi\cli\bin
Escribimos la instrucción para que nos muestre los backups realizados por el SnapManager de VI
  • smvi backup list -id NETAPP_VOL3

Escribimos la siguiente instrucción para montar el volumen en un esx
  • smvi backup mount -backup-name "backup_Backup VM daily VOL3_20140404030026" -esx-server esx.netapp.local. 
Una vez montado el volumen en nuestro servidor ESX nos aparecerá de la siguiente forma.



En este punto podemos copiar la VM a un datastore de producción o inventariarla y ponerla en funcionamiento.

En caso de querer montar el volumen mediante Flexclone, nos conectaremos a la cabina mediante SSH y ejecutaremos los siguientes comandos:

Primero veremos cuantos snapshots hay en un volumen

  • snap list LABNETAPP

Una vez identificados el snapshot que queremos restaurar ejecutamos el siguiente comando
  •  vol clone create LABNETAPP_CLONE -s none -b LABNETAPP snapcreator_vm-hourly_20140416131108


Abrimos el oncommand system manager de NetApp y nos aparece el volumen clonado. Al ser un volumen VMWare montamos el datastore y ya podemos copiar a otro datastore la maquina virtual o la inventariamos para ponerla en producción.

P.D. Acordaros de desmontar el volumen y el snapshot!!!!!