Sunteți pe pagina 1din 388

Gua de instalacin del software Oracle Solaris Cluster

Referencia: 821280810 Septiembre de 2010, Revisin A

Copyright 2000, 2010, Oracle y/o sus subsidiarias. Todos los derechos reservados.

Este software y la documentacin relacionada estn sujetos a un contrato de licencia que incluye restricciones de uso y revelacin,y se encuentran protegidos por la legislacin sobre la propiedad intelectual. A menos que figure explcitamente en el contrato de licencia o est permitido por la ley, no se podr utilizar, copiar, reproducir, traducir, emitir, modificar, conceder licencias, transmitir, distribuir, exhibir, representar, publicar ni mostrar ninguna parte, de ninguna forma, por ningn medio. Queda prohibida la ingeniera inversa, desensamblaje o descompilacin de este software, excepto en la medida en que sean necesarios para conseguir interoperabilidad segn lo especificado por la legislacin aplicable. La informacin contenida en este documento puede someterse a modificaciones sin previo aviso y no se garantiza que se encuentre exenta de errores. Si detecta algn error, le agradeceremos que nos lo comunique por escrito. Si este software o la documentacin relacionada se entrega al Gobierno de EE.UU. o a cualquier entidad que adquiera licencias en nombre del Gobierno de EE.UU. se aplicar la siguiente disposicin:

U.S. GOVERNMENT RIGHTS Programs, software, databases, and related documentation and technical data delivered to U.S. Government customers are "commercial computer software" or "commercial technical data" pursuant to the applicable Federal Acquisition Regulation and agency-specific supplemental regulations. As such, the use, duplication, disclosure, modification, and adaptation shall be subject to the restrictions and license terms set forth in the applicable Government contract, and, to the extent applicable by the terms of the Government contract, the additional rights set forth in FAR 52.227-19, Commercial Computer Software License (December 2007). Oracle America, Inc., 500 Oracle Parkway, Redwood City, CA 94065

Este software o hardware se ha desarrollado para uso general en diversas aplicaciones de gestin de la informacin. No se ha diseado ni est destinado para utilizarse en aplicaciones de riesgo inherente, incluidas las aplicaciones que pueden causar daos personales. Si utiliza este software o hardware en aplicaciones de riesgo, usted ser responsable de tomar todas las medidas apropiadas de prevencin de fallos, copia de seguridad, redundancia o de cualquier otro tipo para

garantizar la seguridad en el uso de este software o hardware. Oracle Corporation y sus subsidiarias declinan toda responsabilidad derivada de los daos causados por el uso de este software o hardware en aplicaciones de riesgo. Oracle y Java son marcas comerciales registradas de Oracle y/o sus subsidiarias. Todos los dems nombres pueden ser marcas comerciales de sus respectivos propietarios. AMD, Opteron, el logotipo de AMD y el logotipo de AMD Opteron son marcas comerciales o marcas comerciales registradas de Advanced Micro Devices. Intel e Intel Xeon son marcas comerciales o marcas comerciales registradas de Intel Corporation. Todas las marcas comerciales de SPARC se utilizan con licencia y son marcas comerciales o marcas comerciales registradas de SPARC International, Inc. UNIX es una marca comercial registrada con acuerdo de licencia de X/Open Company, Ltd. Este software o hardware y la documentacin pueden ofrecer acceso a contenidos, productos o servicios de terceros o informacin sobre los mismos. Ni Oracle Corporation ni sus subsidiarias sern responsables de ofrecer cualquier tipo de garanta sobre el contenido, los productos o los servicios de terceros y renuncian explcitamente a ello. Oracle Corporation y sus subsidiarias no se harn responsables de las prdidas, los costos o los daos en los que se incurra como consecuencia del acceso o el uso de contenidos, productos o servicios de terceros.

110418@25097

Contenido

Prefacio ................................................................................................................................................... .9 1 Planificacin de la configuracin de Oracle Solaris Cluster ......................................................... 15 Bsqueda de tareas de instalacin de Oracle Solaris Cluster .......................................................... 15 Planificacin del sistema operativo Oracle Solaris .......................................................................... 16 Directrices para seleccionar el mtodo de instalacin de Solaris ........................................... 17 Restricciones de las funciones del sistema operativo Oracle Solaris ...................................... 17 Consideraciones sobre los grupos de software de Solaris ....................................................... 18 Particiones de disco del sistema ................................................................................................. 19 Directrices para zonas no globales en un clster global .......................................................... 22 SPARC: Directrices para Sun Logical Domains en un clster ................................................ 24 Planificacin del entorno de Oracle Solaris Cluster ........................................................................ 26 Licencias ........................................................................................................................................ 26 Parches de software ...................................................................................................................... 26 Direcciones IP de red pblica ..................................................................................................... 27 Dispositivos de acceso a la consola ............................................................................................ 28 Direcciones lgicas ...................................................................................................................... 28 Redes pblicas .............................................................................................................................. 28 Servidores del qurum ................................................................................................................ 30 Directrices de NFS ....................................................................................................................... 30 Restricciones de servicio ............................................................................................................. 31 Protocolo de tiempo de red (NTP) ............................................................................................. 33 Componentes configurables de Oracle Solaris Cluster ........................................................... 33 clsteres de zona ........................................................................................................................... 43 Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster .............................................................................................................................................. 46 Dispositivos globales ................................................................................................................... 47 Grupos de dispositivos ................................................................................................................ 47
3

Contenido

Sistemas de archivos del clster .................................................................................................. 48 Seleccin de las opciones de montaje para los sistemas de archivos del clster ................... 50 Informacin de montaje para los sistemas de archivos del clster ........................................ 52 Planificacin de la administracin de volmenes ........................................................................... 53 Directrices para el software del administrador de volmenes ................................................ 54 Directrices para el software Solaris Volume Manager ............................................................. 55 Directrices para el software Veritas Volume Manager ............................................................ 56 Registro de los sistemas de archivos ........................................................................................... 57 Directrices de creacin de reflejos .............................................................................................. 58 Instalacin del software en los nodos del clster global ............................................................. .61 Instalacin del software ...................................................................................................................... 61 Cmo preparar la instalacin del software del clster ............................................................. 62 Instalacin y configuracin del software Servidor de qurum ............................................... 64 Cmo instalar el software Cluster Control Panel en una consola de administracin .......... 67 Cmo instalar el software de Solaris .......................................................................................... 70 Cmo configurar la creacin de reflejos de discos internos .................................................... 75 SPARC: Instalacin del software Sun Logical Domains y creacin de dominios ................. 76 Cmo instalar el software Sistema de archivos de Veritas ...................................................... 77 Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster ................................................................................................................ ...............78 Cmo instalar el software Sun QFS ............................................................................................ 82 Cmo configurar el entorno de usuario root ............................................................................ 82 Cmo configurar el filtro IP de Solaris ...................................................................................... 83 2

Establecimiento del clster global ................................................................................................... 85 Establecimiento de un nuevo clster global o de un nuevo nodo de clster global ..................... 86 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) ........ 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) .................. 98 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) ......................... 107 Cmo preparar el clster para nodos de clster global adicionales ..................................... 125 Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas ........... 128
Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) ................................................................................................................................ 134 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales

Contenido

Contenido

(XML) .......................................................................................................................................... 142 Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global .... 146 Cmo configurar dispositivos del qurum ............................................................................. 149 Cmo verificar los modos de configuracin e instalacin del qurum ............................... 155 Cmo cambiar nombres de host privados .............................................................................. 156 Configuracin de la distribucin de la carga de grupos entre nodos ................................... 158 Cmo configurar Network Time Protocol (NTP) ................................................................. 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster .......................................................................................................................................... 166 Cmo registrar los datos de diagnstico de la configuracin del clster ............................. 169 4 Configuracin del software Solaris Volume Manager ................................................................. 171 Configuracin del software Solaris Volume Manager .................................................................. 171 Cmo crear rplicas de la base de datos de estado ................................................................. 172 Creacin de reflejos del disco raz ............................................................................................ 173 Cmo crear un reflejo del sistema de archivos raz (/) ........................................................... 173 Cmo crear reflejos del espacio de nombres de los dispositivos globales ........................... 176 Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar ................................................................................................................................... 179 Cmo crear reflejos de sistemas de archivos que se pueden desmontar .............................. 181 Creacin de conjuntos de discos en un clster .............................................................................. 184 Cmo crear un conjunto de discos .......................................................................................... 185 Adicin de unidades a un conjunto de discos ......................................................................... 187 Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos .............. 189 Cmo crear un archivo md.tab ................................................................................................ 190 Cmo activar volmenes .......................................................................................................... 191 Configuracin de mediadores de dos cadenas ............................................................................... 193 Requisitos para los mediadores de dos cadenas ..................................................................... 194 Cmo agregar hosts mediadores .............................................................................................. 194 Cmo comprobar el estado de los datos de mediador ........................................................... 195 Cmo corregir datos de mediador errneos ........................................................................... 196

Instalacin y configuracin de Veritas Volume M anager ........................................................... 199


5

Contenido

Instalacin y configuracin del software VxVM ........................................................................... 199 Informacin general de la configuracin de un grupo de discos raz .................................. 200

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Contenido

Cmo instalar el software Veritas Volume Manager ............................................................. 201 SPARC: Cmo encapsular el disco raz ................................................................................... 203 Cmo crear un grupo de discos raz en un disco que no sea raz .......................................... 204 Cmo crear reflejos del disco raz encapsulado ...................................................................... 205 Creacin de grupos de discos en un clster .................................................................................... 207 Cmo crear un grupo de discos ................................................................................................ 208 Cmo registrar un grupo de discos .......................................................................................... 210 Asignacin de un nmero menor nuevo a un grupo de dispositivos .................................. 211 Cmo verificar la configuracin del grupo de discos ............................................................. 212 Desencapsulacin del disco raz ...................................................................................................... 214 Cmo desencapsular el disco raz ............................................................................................ 214 6 Creacin de un sistema de archivos del clster ............................................................................ 217 Creacin de sistemas de archivos del clster .................................................................................. 217 Cmo crear sistemas de archivos del clster ........................................................................... 217 Creacin de zonas no globales y clsteres de zona ..................................................................... .223 Configuracin de una zona no global en un nodo del clster global ........................................... 223 Cmo crear una zona no global en un nodo del clster global ............................................. 223 Cmo configurar un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales ................................................................................................ 227 Configuracin de un clster de zona ............................................................................................... 229 Informacin general de la utilidad clzonecluster ............................................................... 230 Establecimiento del clster de zona ......................................................................................... 230 Adicin de sistemas de archivos a un clster de zona ............................................................ 240 Adicin de dispositivos de almacenamiento a un clster de zona ....................................... 248 8 Instalacin del mdulo de Oracle Solaris Cluster en Sun Management Center ...................... 253 SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center ...... 253 SPARC: Requisitos de instalacin para la supervisin de Oracle Solaris Cluster ...............254 SPARC: Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center ....................................................................................................................................................... 255 SPARC: Cmo iniciar Sun Management Center .................................................................... 256
7

Contenido

SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center .................................................................................................................. 257

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Contenido

SPARC: Cmo cargar el mdulo de Oracle Solaris Cluster .................................................. 258 9 Desinstalacin del software del clster ......................................................................................... 261 Desinstalacin del software .............................................................................................................. 261 Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin ........................................................................................................... 261 Cmo suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart .................................................................................................................................... 265 Cmo desinstalar el software SunPlex Manager .................................................................... 267 Cmo quitar el software Servidor de qurum ........................................................................ 268 Cmo anular la configuracin de un clster de zona ............................................................. 269

Hojas de trabajo de instalacin y configuracin de Oracle Solaris Cluster .............................. 271 Hojas de trabajo de instalacin y configuracin ............................................................................ 272 Hoja de trabajo para el diseo del sistema de archivos local ................................................. 273 Hojas de trabajo para dispositivos locales ............................................................................... 275 Hoja de trabajo para la configuracin de grupos de dispositivos ......................................... 277 Hoja de trabajo para la configuracin del administrador de volmenes ............................. 279 Hoja de trabajo de volmenes (Solaris Volume Manager) ................................................... 281 ndice .................................................................................................................................................. 283

Prefacio

La Gua de instalacin del software Oracle Solaris Cluster contiene directrices y procedimientos para la instalacin del software Oracle Solaris Cluster en sistemas basados en SPARC y x86.
Nota Esta versin de Oracle Solaris Cluster admite sistemas que usen arquitecturas de las

familias de procesadores SPARC y x86: UltraSPARC, SPARC64, AMD64 e Intel 64. En este documento, x86 hace referencia a la familia ms amplia de productos de 64 bits compatibles con x86. La informacin de este documento se aplica a todas las plataformas a menos que se especifique lo contrario. Este documento est destinado a administradores de sistemas con amplios conocimientos del software y hardware de Oracle. No utilice este documento como una gua previa a la venta. Antes de leer este documento, debe conocer los requisitos del sistema, y disponer del equipo y el software adecuados. Las instrucciones de este documento presuponen un conocimiento previo del sistema operativo Solaris (SolarisOS) y el dominio del software de administracin de volmenes que se utiliza con el software Oracle Solaris Cluster.

Uso de los comandos de U N IX


Este documento contiene informacin sobre los comandos que se utilizan para instalar, establecer o actualizar una configuracin de Oracle Solaris Cluster. Puede que los documentos no contengan una informacin exhaustiva acerca de los comandos y los procedimientos bsicos de UNIX como, por ejemplo, el apagado o el inicio del sistema, o la configuracin de los dispositivos. Para obtener informacin a este respecto, consulte una o varias de las siguientes fuentes.

Documentacin en lnea del sistema operativo Solaris Otra documentacin de software recibida con el sistema Pginas de comando man del sistema operativo Solaris
9

Prefacio

Convenciones tipogrficas
La siguiente tabla describe las convenciones tipogrficas utilizadas en este manual.
TA B L A P1

Convenciones tipogrficas
Significado Ejemplo

Tipo de letra

AaBbCc123

Los nombres de comandos, archivos y directorios, as como la salida del equipo en pantalla.

Edite el archivo .login . Utilice el comando ls -a para mostrar todos los archivos. machine_name% tiene correo.

AaBbCc123

Lo que se escribe en contraposicin con la salida del equipo en pantalla. Marcador de posicin: debe sustituirse por un valor o nombre real. Ttulos de manuales, trminos nuevos y palabras destacables.

machine_name% su Contrasea: El comando necesario para eliminar un archivo es rm filename. Consulte el captulo 6 de la Gua del usuario. Una copia en cach es la que se almacena localmente. No guarde el archivo. Nota: algunos elementos destacados aparecen en negrita en lnea.

aabbcc123

AaBbCc123

Indicadores de los shells en los ejemplos de comandos


La tabla siguiente muestra los indicadores predeterminados de sistema UNIX y de superusuario para los shells que se incluyen en el sistema operativo Oracle. Solaris.Tenga en cuenta que el indicador del sistema predeterminado que se visualiza en los ejemplos de comando vara segn la versin de Oracle Solaris.
TA B L A P2 Shell

Indicadores del shell


Indicador

Shell Bash, Shell Korn y Shell Bourne Shell Bash, Shell Korn y Shell Bourne para superusuario Shell C
10

$ # machine_name%

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Shell C para superusuario

machine_name#(nm_nombre_equipo)

Prefacio

1 1

Documentacin relacionada
Puede encontrar informacin sobre temas referentes al software Oracle Solaris Cluster en la documentacin enumerada en la tabla siguiente. Toda la documentacin sobre Oracle Solaris Cluster est disponible en http://docs.sun.com .
Tema Documentacin

Introduccin

Oracle Solaris Cluster Overview Oracle Solaris Cluster 3.3 Documentation Center

Conceptos Administracin e instalacin de software Instalacin de software Administracin e instalacin de servicio de datos Desarrollo de servicio de datos Administracin del sistema

Oracle Solaris Cluster ConceptsGuide Oracle Solaris Cluster 3.3 Hardware Administration Manual Guas de administracin de hardware individual Oracle Solaris Cluster Software Installation Guide Oracle Solaris Cluster Data ServicesPlanning and Administration Guide Guas de servicio de datos individual Oracle Solaris Cluster Data ServicesDeveloper s Guide Gua de administracin del sistema de Oracle Solaris Cluster Oracle Solaris Cluster Quick Reference

Actualizacin de software Mensajes de error Guide Referencias de comandos y funciones

Oracle Solaris Cluster UpgradeGuide Oracle Solaris Cluster Error Messages

Oracle Solaris Cluster ReferenceManual Oracle Solaris Cluster Data ServicesReferenceManual Oracle Solaris Cluster Quorum Server ReferenceManual

Para obtener una lista completa de la documentacin de Oracle Solaris Cluster, consulte las notas de la versin de software Oracle Solaris Cluster en http://wikis.sun.com/display/ SunCluster/ Home/ .

Referencias relacionadas con sitios web de otros proveedores


Oracle no se hace responsable de la disponibilidad de los sitios web de terceros mencionados en este documento. Oracle no avala ni se hace responsable del contenido, la publicidad, los

productos ni otros materiales disponibles en dichos sitios o recursos, o a travs de ellos. Oracle

tampoco se hace responsable de ninguna prdida real o supuesta que se derive del uso de los contenidos, artculos o servicios que estn disponibles a travs de estos sitios o recursos (o que pueda estar relacionada con ellos).

Documentacin, asistencia o formacin


Consulte los sitios web siguientes para obtener recursos adicionales:

Documentacin (http://docs.sun.com ) Asistencia (http://www.oracle.com/us/support/systems/index.html ) Formacin (http://education.oracle.com ): haga clic en el vnculo de la izquierda.

Oracle agradece sus comentarios


Oracle valora sus comentarios y sugerencias sobre la calidad y la utilidad de su documentacin. Si encuentra cualquier clase de error o tiene cualquier sugerencia de mejora, acceda a http://docs.sun.com y haga clic en el apartado de comentarios. Indique el ttulo y el nmero de referencia de la documentacin junto con el captulo, la seccin y el nmero de la pgina, si dispone de estos datos. Indquenos si desea recibir una respuesta. Oracle Technology Network (http://www.oracle.com/technetwork/index.html) una amplia gama de recursos relativos al software de Oracle::

ofrece

Comente problemas tcnicos y soluciones en los foros de debate (h ttp :// forums.oracle.com ). Consulte cursos prcticos con Oracle por ejemplo (http://www.oracle.com/technology/ obe/start/index.html ). Descargue cdigo de ejemplo (http://www.oracle.com/technology/sample_code/ index.html ).

Obtencin de ayuda
Si tiene problemas durante la instalacin o utilizacin del software Oracle Solaris Cluster, pngase en contacto con su proveedor de servicios y proporcione la informacin siguiente.

Su nombre y direccin de correo electrnico (si estuviera disponible) El nombre, direccin y nmero de telfono de su empresa Los modelos y nmeros de serie de sus sistemas El nmero de versin del sistema operativo Oracle Solaris (por ejemplo, Oracle Solaris 10) El nmero de versin de Oracle Solaris Cluster (por ejemplo, Oracle Solaris Cluster 3.3)

Use los comandos siguientes para reunir informacin sobre el sistema para el proveedor de servicios.

Comando

Funcin

prtconf -v psrinfo -v showrev -p SPARC: prtdiag -v /usr/cluster/bin/clnode show-rev

Muestra el tamao de la memoria del sistema y ofrece informacin sobre los dispositivos perifricos. Muestra informacin acerca de los procesadores. Indica los parches instalados. Muestra informacin de diagnstico del sistema. Muestra informacin sobre la versin y el paquete de Oracle Solaris Cluster.

Tenga tambin a mano el contenido del archivo /var/adm/messages .

14

C A P T U L O

Planificacinde la configuracinde Oracle SolarisCluster

En este captulo, se proporciona informacin y se incluyen las directrices especficas de una configuracin de Oracle Solaris Cluster 3.3. En este captulo, se ofrece la siguiente informacin general: Bsqueda de tareas de instalacin de Oracle Solaris Cluster en la pgina 15 Planificacin del sistema operativo Oracle Solaris en la pgina 16 Planificacin del entorno de Oracle Solaris Cluster en la pgina 26 Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster en la pgina 46 Planificacin de la administracin de volmenes en la pgina 53

Bsqueda de tareas de instalacin de Oracle Solaris Cluster


En la siguiente tabla se muestra dnde se encuentran las instrucciones de las diversas tareas de instalacin del software Oracle Solaris Cluster y el orden en el que deben realizarse.
TA B L A 11 Tarea

Informacin sobre las tareas de instalacin del software OracleSolaris Cluster


Instrucciones

Configure el hardware del clster.

Oracle Solaris Cluster 3.3 Hardware Administration Manual Documentacin incluida con el servidor y los dispositivos de almacenamiento

Planifique la instalacin del software del clster global.

Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster Hojas de trabajo de instalacin y configuracin en la pgina 272

15

Instale los paquetes de software. Si lo desea, instale y configure el software &QFS.

Instalacin del software en la pgina 61 Uso de SAM-QFS con Sun Cluster

16

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Planificacin del sistema operativo OracleSolaris

TA B L A11 Tarea

Informacin sobre las tareas de instalacin del software OracleSolaris Cluster


Instrucciones

(Continuacin)

Establezca un nuevo clster global o un nuevo nodo del clster global. Configure el software Solaris Volume Manager.

Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86 Configuracin del software Solaris Volume Manager en la pgina 171 Documentacin de Solaris Volume Manager

Instale y configure el software Veritas Volume Manager (VxVM). Instalacin y configuracin del software VxVM en la pgina 199 Documentacin de VxVM Configure los sistemas de archivos del clster si es necesario. (Opcional) Cree zonas no globales. (Opcional) Cree clsteres de zona. (Opcional) SPARC: Instale y configure el mdulo de Oracle Solaris Cluster en Sun Management Center . Cmo crear sistemas de archivos del clster en la pgina 217 Configuracin de una zona no global en un nodo del clster global en la pgina 223 Configuracin de un clster de zona en la pgina 229 SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Documentacin de Sun Management Center Planifique, instale y configure los grupos de recursos y los servicios de datos. Cree sistemas de archivos locales de alta disponibilidad si es necesario. Desarrolle servicios de datos personalizados. Oracle Solaris Cluster Data Services Planning and Administration Guide Oracle Solaris Cluster Data ServicesDeveloper s Guide

Planificacin del sistema operativo Oracle Solaris


En esta seccin se proporcionan las siguientes directrices para planificar la instalacin del software de Solaris en una configuracin de clster.

Directrices para seleccionar el mtodo de instalacin de Solaris en la pgina 17 Restricciones de las funciones del sistema operativo Oracle Solaris en la pgina 17 Consideraciones sobre los grupos de software de Solaris en la pgina 18 Particiones de disco del sistema en la pgina 19 Directrices para zonas no globales en un clster global en la pgina 22 SPARC: Directrices para Sun Logical Domains en un clster en la pgina 24

Para obtener ms informacin sobre el software de Solaris, consulte la documentacin de instalacin de Solaris.

17

Planificacin del sistema operativo OracleSolaris

Directrices para seleccionar el mtodo de instalacin de Solaris


Puede instalar el software de Solaris desde un DVD-ROM local o un servidor de instalacin en red mediante el mtodo JumpStart. Adems, el software Oracle Solaris Cluster proporciona un mtodo personalizado para instalar tanto el SO Solaris como el software Oracle Solaris Cluster utilizando JumpStart. Si va a realizar la instalacin en varios nodos del clster, considere la posibilidad de llevar a cabo una instalacin en red. Consulte Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 para obtener informacin sobre el mtodo de instalacin JumpStart scinstall . Consulte la documentacin de instalacin de Solaris para obtener informacin sobre los mtodos de instalacin estndar de Solaris.

Restricciones de las funciones del sistema operativo Oracle Solaris


Tenga en cuenta los siguientes aspectos al planificar el uso del sistema operativo Solaris en una configuracin de Oracle Solaris Cluster:

Zonas de Solaris : instale el software de la estructura de Oracle Solaris Cluster slo en la zona global. Para determinar si puede instalar directamente un servicio de datos de Oracle Solaris Cluster en una zona no global, consulte la documentacin de ese servicio de datos. Si configura zonas no globales en un nodo del clster global, debe habilitarse el sistema de archivos de bucle invertido (LOFS). Consulte la informacin de LOFS para obtener consideraciones adicionales.

Sistema de archivos de bucle invertido (LOFS): durante la creacin del clster, la funcin LOFS se habilita de forma predeterminada. Si el clster cumple las dos condiciones que aparecen a continuacin, debe inhabilitar LOFS para evitar problemas de conmutacin u otro tipo de errores:

Oracle Solaris Cluster HA para NFS (HA para NFS) est configurado en un sistema de archivos local de alta disponibilidad. Se est ejecutando el daemon automountd.

Si el clster cumple slo con una de estas condiciones, podr habilitar de forma segura LOFS. Si es necesario habilitar LOFS y el daemon automountd, excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS.
Captulo 1 Planificacinde la configuracinde OracleSolaris Cluster 17

Planificacin del sistema operativo OracleSolaris

Apagado automtico para ahorro de energa: no se admite el apagado automtico para ahorro de energa en las configuraciones de Oracle Solaris Cluster y, por lo tanto, no debe habilitarse. Consulte las pginas de comando man pmconfig(1M) y power.conf(4) para obtener ms informacin. Filtro IP: el software Oracle Solaris Cluster no admite la funcin de filtro IP de Solaris para servicios escalables, pero s para los servicios de migracin tras error. Tenga en cuenta las directrices y restricciones siguientes al configurar el filtro IP de Solaris en un clster:

No se admite el enrutamiento de NAT. No se admite el uso de NAT para la conversin de direcciones locales. Durante la conversin de NAT, se reescriben los paquetes en lnea y, por lo tanto, el proceso es transparente para el software del clster. No se admiten reglas de filtrado con datos de estado, slo se permite el filtrado con datos sin estado. Oracle Solaris Cluster se basa en Multirruta de red IP (IPMP) para la supervisin de redes pblicas, cosa que no funciona con reglas de filtrado con datos de estado.

fssnap : el software Oracle Solaris Cluster no admite el comando fssnap, que es una funcin de UFS. Sin embargo, se puede utilizar el comando fssnap en los sistemas locales que no estn controlados por el software Oracle Solaris Cluster. Las siguientes restricciones se aplican a la compatibilidad con fssnap :

El comando fssnap se admite en sistemas de archivos locales que no estn administrados por el software Oracle Solaris Cluster. El comando fssnap no se admite en los sistemas de archivos del clster. El comando fssnap no se admite en sistemas de archivos locales bajo el control de HAStoragePlus.

Consideraciones sobre los grupos de software de Solaris


El software Oracle Solaris Cluster 3.3 necesita, al menos, el grupo de software de Solaris de usuario final (SU N W C user). No obstante, puede que otros componentes de la configuracin del clster presenten tambin sus propios requisitos de software de Solaris. Tenga en cuenta la informacin siguiente cuando decida qu grupo de software de Solaris va a instalar.

Servidores : consulte la documentacin del servidor para conocer los requisitos de software de Solaris. Por ejemplo, los servidores Sun Enterprise 10000 requieren el grupo de software de Solaris completo ms la compatibilidad con OEM. Paquetes de Solaris adicionales: cabe la posibilidad de que tenga que instalar otros paquetes de Solaris que no formen parte del grupo de software de Solaris de usuario final como, Los paquetes de servidor HTTP de Apache y el software Trusted Extensions son dos ejemplos que precisan paquetes que se encuentran en un grupo de software superior

18

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

al del

Planificacin del sistema operativo OracleSolaris

Captulo 1 Planificacinde la configuracinde OracleSolaris Cluster

19

Planificacin del sistema operativo OracleSolaris

usuario final. Es posible que el software de otros proveedores pueda requerir paquetes de software de Solaris adicionales. Consulte la documentacin que lo acompaa para obtener informacin sobre cualquier requisito de software de Solaris.
Consejo Para no tener que instalar manualmente los paquetes de software de Solaris, instale

el grupo de software de Solaris completo ms la compatibilidad con OEM.

Particiones de disco del sistema


Agregue esta informacin a la Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273 adecuada. Cuando instale el sistema operativo Solaris, cree las particiones de Oracle Solaris Cluster necesarias y compruebe que todas ellas cumplan los requisitos de espacio mnimo.

Intercambio: la cantidad combinada de espacio de intercambio, swap, que se asigne al software de Solaris y Oracle Solaris Cluster no debe ser inferior a 750 MB. Para obtener los mejores resultados, agregue, al menos, 512 MB del espacio asignado a Oracle Solaris Cluster a la cantidad que necesita el sistema operativo Solaris. Adems, asigne la cantidad adicional de espacio de intercambio (swap) necesaria para las aplicaciones que se van a ejecutar en el host de Solaris.
Nota Si crea un archivo swap adicional, no cree el archivo swap en un dispositivo

global. Use slo un dispositivo local como dispositivo swap para el host.

(Opcional) /globaldevices : cree un sistema de archivos con un tamao mnimo de 512 MB que usar la utilidad scinstall(1M) para los dispositivos globales. Si utiliza en su lugar un dispositivo lofi , no es necesario crear este sistema de archivos. Desde una perspectiva funcional, las dos opciones son equivalentes. Administrador de volmenes: cree una particin de 20 MB en el segmento 7 de manera que el administrador de volmenes la pueda utilizar. Si el clster utiliza Veritas Volume Manager (VxVM) y desea encapsular el disco raz, debe contar con dos segmentos libres a disposicin de VxVM.

Para cumplir estos requisitos, debe personalizar la particin si va a efectuar una instalacin interactiva del SO Solaris. Consulte las directrices siguientes para obtener informacin adicional sobre la planificacin de la particin:

Directrices para el sistema de archivos raz (/) en la pgina 20 Directrices para el sistema de archivos /globaldevices en la pgina 20 Requisitos del administrador de volmenes en la pgina 21

20

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Planificacin del sistema operativo OracleSolaris

Directrices para el sistema de archivos raz (/)


Al igual que con cualquier otro sistema que ejecute el SO Solaris, puede configurar los directorios raz (/), /var , /usr y /opt como sistemas de archivos independientes. Tambin puede incluir todos los directorios en el sistema de archivos raz (/). A continuacin se describe el contenido de software de los directorios raz (/), /var , /usr y /opt en una configuracin de Oracle Solaris Cluster. Tenga en cuenta esta informacin al planificar el esquema de particin.

raz (/): el software Oracle Solaris Cluster ocupa menos de 40 MB en el sistema de archivos raz (/). El software Solaris Volume Manager necesita menos de 5 MB, y el software VxVM menos de 15 MB. Para configurar un espacio adicional y una capacidad de inode suficientes, aada al menos 100 MB al espacio que normalmente asignara en el sistema de archivos raz ( /). Este espacio se utiliza para crear los dispositivos especiales de bloques y de caracteres utilizados por el software de administracin de volmenes. Debe asignar este espacio adicional, sobre todo, si hay un gran nmero de discos compartidos en el clster. En el SO Solaris 10, si desea utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, debe disponer de 100 MB de espacio libre.

/var : el software Oracle Solaris Cluster ocupa un espacio insignificante en el sistema de archivos/var en el momento de la instalacin. No obstante, es necesario reservar espacio suficiente para los archivos de registro. Adems, es posible que en un nodo del clster se registren ms mensajes de los que se encontraran en un servidor independiente normal. Por lo tanto, disponga, al menos, de 100 MB para el sistema de archivos /var . /usr : el software Oracle Solaris Cluster ocupa menos de 25 MB en el sistema de archivos /usr . Solaris Volume Manager y VxVM requieren cada uno menos de 15 MB. /opt : el software de la estructura de Oracle Solaris Cluster utiliza menos de 2 MB en el sistema de archivos /opt . Sin embargo, es posible que cada servicio de datos de Oracle Solaris Cluster utilice entre 1 y 5 MB. El software Solaris Volume Manager no utiliza ningn espacio en el sistema de archivos /opt . El software VxVM puede utilizar ms de 40 MB si se han instalado todos sus paquetes y herramientas. Adems, la mayora del software de bases de datos y aplicaciones se instala en el sistema de archivos /opt . SPARC: Si utiliza el software Sun Management Center para supervisar el clster, necesita un espacio adicional de 25 MB en cada host de Solaris para poder utilizar el agente de Sun Management Center y los paquetes de mdulos de Oracle Solaris Cluster.

Directrices para el sistema de archivos /globaldevices


El software Oracle Solaris Cluster ofrece dos ubicaciones para alojar el espacio de nombres de los dispositivos globales:

Un dispositivo lofi Un sistema de archivos dedicado en uno de los discos locales


Captulo 1 Planificacinde la configuracinde OracleSolaris Cluster 21

Planificacin del sistema operativo OracleSolaris

En esta seccin se proporcionan directrices de uso de una particin dedicada. Esta informacin no es relevante si aloja el espacio de nombres de los dispositivos globales en un dispositivo lofi . El sistema de archivos /globaldevices se encuentra normalmente en el disco raz. Sin embargo, si utiliza un almacenamiento diferente para alojar el sistema de archivos de los dispositivos globales, como un volumen del administrador de volmenes lgico, ste no puede formar parte del conjunto de discos compartidos de Solaris Volume Manager ni de un grupo de discos de VxVM distinto al grupo de discos raz. Este sistema de archivos se monta posteriormente como un sistema de archivos UFS del clster. Asigne a este sistema de archivos el nombre /globaldevices , ya que as es como lo reconoce de forma predeterminada el comando scinstall (1M).
Nota Slo se permite el tipo UFS para el sistema de archivos de dispositivos globales.

No intente cambiar el tipo de sistema de archivos una vez creado el sistema de archivos de dispositivos globales. Sin embargo, un sistema de archivos UFS de dispositivos globales puede coexistir en un nodo con otros sistemas de archivos raz que utilicen ZFS. El comando scinstall cambia el nombre del sistema de archivos por /global/.devices/node@ id_nodo , donde id_nodo representa el nmero asignado a un host de Solaris cuando se convierte en miembro del clster global. Se elimina el punto de montaje original /globaldevices . El sistema de archivos /globaldevices debe tener espacio y capacidad de inode suficientes para crear los dispositivos especiales de bloques y de caracteres. Esta directriz resulta especialmente importante si hay una gran cantidad de discos en el clster. Para la mayora de las configuraciones del clster, debera bastar con un sistema de archivos de 512 MB.

Requisitos del administrador de volmenes


Si utiliza el software Solaris Volume Manager, debe reservar un segmento en el disco raz para utilizarlo en la creacin de la rplica de la base de datos de estado. En concreto, reserve un segmento para este fin en cada disco local. Sin embargo, si slo dispone de un disco local en un host de Solaris, puede que necesite crear tres rplicas de bases de datos de estado en el mismo segmento para que el software Solaris Volume Manager funcione correctamente. Consulte la documentacin de Solaris Volume Manager para obtener ms informacin. Si utiliza Veritas Volume Manager (VxVM) y desea encapsular el disco raz, debe contar con dos segmentos libres a disposicin de VxVM. Adems, necesita disponer de espacio libre sin asignar adicional al comienzo o al final del disco. Consulte la documentacin de VxVM para obtener ms informacin sobre la encapsulacin del disco raz.
22 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Planificacin del sistema operativo OracleSolaris

Ejemplo:asignaciones del sistema de archivos de muestra


En la Tabla 12 se muestra un esquema de particin para un host de Solaris que tenga menos de 750 MB. Este esquema se debe instalar con el grupo de software de Solaris de usuario final, el software Oracle Solaris Cluster y el servicio de datos de Oracle Solaris Cluster HA para NFS. El ltimo segmento del disco, el 7, se asigna con una pequea cantidad de espacio para uso del administrador de volmenes. Este diseo permite el uso del software Solaris Volume Manager o VxVM. Si usa el software Solaris Volume Manager, utilice el segmento 7 para la rplica de la base de datos de estado. Si utiliza VxVM, libere posteriormente el segmento 7 asignndole una longitud cero. Este diseo proporciona los dos segmentos libres necesarios, 4 y 7, as como espacio sin utilizar al final del disco.
TA B L A 12

Asignacin del sistema de archivos de ejemplo


Contenido Asignacin de tamao Descripcin

Segmento

6,75 GB

Espacio libre que queda en el disco despus de asignar espacio a los segmentos del 1 al 7. Se utiliza para el sistema operativo Solaris, el software Oracle Solaris Cluster, el software de servicios de datos, el software del administrador de volmenes, los paquetes del agente Sun Management Center y del agente del mdulo de Oracle Solaris Cluster, los sistemas de archivos raz, y el software de bases de datos y aplicaciones. 512 MB para el SO Solaris. 512 MB para el software Oracle Solaris Cluster.

swap

1 GB

2 3

superposicin /globaldevices

8,43 GB 512 MB

Todo el disco. El software Oracle Solaris Cluster asigna posteriormente a este segmento un punto de montaje diferente y lo monta como un sistema de archivos del clster. Si decide utilizar un dispositivo lofi en lugar de una particin dedicada, deje libre el segmento 3. Disponible como segmento libre para encapsular el disco raz en VxVM. Lo utiliza el software Solaris Volume Manager para la rplica de la base de datos de estado o VxVM para efectuar la instalacin despus de liberar el segmento.

4 5 6 7

sin utilizar sin utilizar sin utilizar administrador de volmenes

20 MB

Directrices para zonas no globales en un clster global


Captulo 1 Planificacinde la configuracinde OracleSolaris Cluster 23

Planificacin del sistema operativo OracleSolaris

Para obtener ms informacin acerca de la finalidad y la funcin de las zonas de Solaris en un clster, consulte Support for Oracle Solaris Zones de Oracle Solaris Cluster Concepts Guide.

24

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Para obtener directrices sobre cmo configurar un clster de zonas no globales, consulte la seccin clsteres de zona en la pgina 43. Tenga en cuenta los puntos siguientes a la hora de crear una zona no global de Solaris 10, denominada simplemente zona, en un nodo del clster.

Nombre de zona exclusivo : el nombre de zona tiene que ser exclusivo en el host de Solaris. Reutilizar un nombre de zona en varios nodos: para simplificar la administracin del clster, puede usar el mismo nombre para una zona con todos los nodos en los que los grupos de recursos vayan a ponerse en lnea. Direcciones IP privadas: no intente usar ms direcciones privadas de las que estn disponibles en el clster. Montajes : no incluya montajes globales en las definiciones de zona. Incluya slo montajes de bucle. Servicios de migracin tras error: en los clsteres de varios host, aunque el software Oracle Solaris Cluster le permite especificar zonas diferentes del mismo host de Solaris en una lista de nodos del grupo de recursos de migracin tras error, esto slo le resultar til durante las pruebas. Si un nico host tiene todas las zonas de la lista de nodos, el nodo se convierte en un slo punto de error para el grupo de recursos. Para obtener una disponibilidad ms alta, las zonas de la lista de nodos del grupo de recursos de migracin tras error deberan estar en hosts distintos. En los clsteres de host nico, no habr ningn riesgo de funcionamiento si especifica varias zonas en una lista de nodos del grupo de recursos de migracin tras error.

Servicios escalables : no cree zonas no globales para utilizarlas en el mismo servicio escalable del mismo host de Solaris. Cada instancia del servicio escalable se debe ejecutar en un host distinto. Sistemas de archivos del clster: para los sistemas de archivos del clster que utilicen UFS o VxFS, no agregue directamente un sistema de archivos del clster a una zona no global mediante el comando zonecfs. En su lugar, configure un recurso de HAStoragePlus, que administre el montaje del sistema de archivos del clster en la zona global y lleve a cabo el montaje de bucle del sistema de archivos del clster en la zona no global. LOFS: Solaris Zones necesita que el sistema de archivos de bucle (Loopback File System, LOFS) est activado. Sin embargo, el servicio de datos de Oracle Solaris Cluster HA para NFS requiere que el LOFS est inhabilitado para evitar problemas de conmutacin u otros errores. Si configura zonas no globales y Oracle Solaris Cluster HA para NFS en el clster, elija y ponga en prctica una de las siguientes opciones para evitar posibles problemas en el servicio de datos:

Inhabilite el daemon automountd. Excluya del mapa del montador automtico todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por Oracle Solaris Cluster HA para NFS.

Zonas de IP exclusiva: las siguientes directrices se aplican especficamente a las zonas no globales de IP exclusiva:

Grupos de recursos de nombre de host: en un grupo de recursos que contenga un recurso LogicalHostname, si la lista de nodos incluye una zona no global con la propiedad de ip-type establecida en exclusive , todas las zonas de dicha lista deben tener la propiedad establecida en exclusive . Tenga en cuenta que una zona global siempre tiene la propiedad ip-type establecida en shared, de forma que no puede coexistir en una lista de nodos que contenga zonas de ip-type=exclusive . Esta restriccin slo se aplica a las versiones del SO Solaris que utilicen la propiedad iptype de las zonas de Solaris. Grupos de IPMP: para todos los adaptadores de red pblica que se utilizan para el trfico del servicio de datos en la zona no global, debe configurar los grupos de IPMP de forma manual en todos los archivos /etc/hostname. adaptador de la zona. Esta informacin no se hereda de la zona global. Para obtener instrucciones y directrices de configuracin de grupos IPMP, siga los procedimientos descritos en Parte VI, IPMP de Gua de administracin del sistema:serviciosIP. Dependencia del nombre de host privado: las zonas de IP exclusiva no pueden depender de los nombres de host privados y las direcciones privadas del clster. Recursos de direccin compartida: los recursos de direccin compartida no pueden usar zonas de IP exclusiva.

SPA R C : Directrices para Sun Logical Domains en un clster


Tenga en cuenta los siguientes puntos al crear un dominio invitado o de E/S de Sun Logical Domains (LDoms) en un equipo agrupado fsicamente en clsteres compatibles con el hipervisor SPARC:

Requisito de LUN SCSI: el dispositivo de almacenamiento virtual o backend de disco virtual de un dominio invitado de LDoms debe ser un LUN SCSI completo en el dominio de E/S. No se puede utilizar un dispositivo virtual arbitrario. Aislamiento: no exporte un LUN de almacenamiento a ms de un dominio invitado en el mismo equipo fsico a menos que inhabilite tambin el aislamiento para ese dispositivo. De lo contrario, si dos dominios invitados diferentes se encuentran en un mismo equipo y los dos estn visibles para un dispositivo, este dispositivo se aislar cada vez que se finalice uno de los dominios invitados. El aislamiento del dispositivo generar un error grave en los dems dominios invitados que intenten acceder posteriormente al dispositivo. Aislamiento de red: los dominios invitados que residen en el mismo equipo fsico, pero que se configuran en clsteres diferentes, deben encontrarse en la red aislados entre s. Utilice uno de los mtodos siguientes:

Configure los clsteres para que utilicen diferentes interfaces de red en el dominio de E/S de la red privada. Utilice diferentes direcciones de red para cada uno de los clsteres.

Funciones de red en los dominios invitados: los paquetes de red que se transfieren a los dominios invitados y que proceden de ellos deben atravesar los dominios de servicios para acceder a los controladores de red mediante los conmutadores virtuales. Los conmutadores virtuales utilizan subprocesos del ncleo que se ejecutan con prioridad del sistema. Los subprocesos de conmutadores virtuales deben poder adquirir los recursos de CPU necesarios para realizar operaciones vitales del clster, incluidos los puntos de control, las respuestas, la pertenencia, etc. Al configurar los conmutadores virtuales con la opcin mode=sc,se habilita la administracin acelerada de los paquetes de respuestas del clster. Sin embargo, la fiabilidad de las dems operaciones vitales del clster pueden mejorarse aadiendo ms recursos de CPU al dominio de servicios bajo las siguientes cargas de trabajo:

Por ejemplo, la carga de alta interrupcin debido a la E/S de disco o red. Bajo una carga excesiva, los conmutadores pueden impedir que los subprocesos del sistema se ejecuten durante un largo periodo de tiempo, incluidos los subprocesos de conmutadores virtuales. Subprocesos en tiempo real que presentan un comportamiento excesivamente agresivo al conservar los recursos de CPU. Los subprocesos en tiempo real se ejecutan con una prioridad superior a los subprocesos de conmutadores virtuales, lo que puede limitar los recursos de CPU de los subprocesos de conmutadores virtuales durante un amplio periodo de tiempo.

Almacenamiento no compartido: para el almacenamiento no compartido, como las imgenes de sistema operativo de dominios invitados de LDoms, se puede utilizar cualquier clase de dispositivo virtual. Puede usar estos dispositivos virtuales con cualquier elemento del dominio de E/S como, por ejemplo, los archivos o los volmenes. No obstante, no copie archivos ni clone volmenes en el dominio de E/S para asignarlos a diferentes dominios invitados del mismo clster. Estas acciones provocaran problemas, ya que los dispositivos virtuales resultantes presentaran la misma identidad de dispositivo en dominios invitados diferentes. Cree siempre un nuevo archivo o dispositivo en el dominio de E/S, que recibir una identidad de dispositivo exclusiva, y, a continuacin, asgnelo a un dominio invitado diferente. Exportacin del almacenamiento desde dispositivos de E/S: si configura un clster formado por dominios de E/S de LDoms, no exporte sus dispositivos de almacenamiento a otros dominios invitados que ejecuten tambin el software Oracle Solaris Cluster. Multirruta de E/S de Solaris: no ejecute el software multirruta de E/S de Solaris (MPxIO) desde dominios invitados. En su lugar, ejectelo en el dominio de E/S y exprtelo a los dominios invitados. Rango de direcciones IP de interconexin privada: todos los dominios invitados creados en el mismo equipo fsico comparten la red privada, que est visible para todos estos dominios. Antes de especificar un rango de direcciones IP de red privada en la

utilidad

Planificacindel entorno de OracleSolaris Cluster

scinstall para que lo utilice el clster de dominios invitados, asegrese de que otro dominio invitado del mismo equipo fsico no est utilizando ya este rango. Para obtener ms informacin sobre Sun Logical Domains, consulte LogicalDomains (LDoms) 1.0.3 Administration Guide.

Planificacin del entorno de Oracle Solaris Cluster


En esta seccin se proporcionan directrices de planificacin y preparacin para la instalacin y la configuracin de los siguientes componentes del software Oracle Solaris Cluster.

Licencias en la pgina 26 Parches de software en la pgina 26 Direcciones IP de red pblica en la pgina 27 Dispositivos de acceso a la consola en la pgina 28 Direcciones lgicas en la pgina 28 Redes pblicas en la pgina 28 Servidores del qurum en la pgina 30 Directrices de NFS en la pgina 30 Restricciones de servicio en la pgina 31 Protocolo de tiempo de red (NTP) en la pgina 33 Componentes configurables de Oracle Solaris Cluster en la pgina 33 clsteres de zona en la pgina 43

Para obtener informacin detallada sobre los componentes de Oracle Solaris Cluster, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.

L icencias
Asegrese de que dispone de todas los certificados de licencia necesarios antes de iniciar la instalacin del software. El software Oracle Solaris Cluster no requiere un certificado de licencia, pero cada nodo instalado con l debe estar cubierto por el acuerdo de licencia de software Oracle Solaris Cluster. Para conocer los requisitos de licencia del software del administrador de volmenes y de las aplicaciones, consulte la documentacin de instalacin de estos productos

Parches de software
Despus de instalar los productos de software, debe instalar tambin los parches necesarios. Para garantizar el correcto funcionamiento del clster, asegrese de que todos

Planificacindel entorno de OracleSolaris los nodos del Cluster

clster mantengan el mismo nivel de parche.

Planificacindel entorno de OracleSolaris Cluster

Para obtener informacin acerca de los parches necesarios, consulte Parches y niveles de firmware necesarios en las Notas de la versin de Sun Cluster o pngase en contacto con su proveedor de servicios de Oracle. Para obtener directrices y procedimientos para aplicar los parches, consulte el Captulo 11, Aplicacin de parches en el software y el firmware de Oracle Solaris Cluster de Gua de administracin del sistema de Oracle Solaris Cluster.

Direcciones IP de red pblica


Para obtener informacin acerca del uso de redes pblicas por parte del clster, consulte Public Network Adapters and IP Network Multipathing de Oracle Solaris Cluster Concepts Guide. Debe configurar varias direcciones IP de red pblica para los diferentes componentes de Oracle Solaris Cluster en funcin de la configuracin del clster. Cada host de Solaris de la configuracin del clster debe tener, al menos, una conexin de red pblica con el mismo conjunto de subredes pblicas. En la siguiente tabla, se enumeran los componentes que necesitan recibir la asignacin de direcciones IP de red pblica. Agregue estas direcciones IP a las siguientes ubicaciones:

Cualquier servicio de nombres utilizado. El archivo /etc/inet/hosts el software de Solaris. El archivo /etc/inet/hosts local en cada nodo del clster global despus de instalar local en cualquier zona no global con una IP

exclusiva. TA B L A13 Componentes de Oracle Solaris Cluster que utilizan direcciones IP de red
pblica Componen te
Consola de administracin Nodos del clster global subred. Nodos del clster de zona por subred. Interfaz de red de la consola de dominio (Sun Fire 15000) (Opcional) Zonas no globales subred. Dispositivo de acceso a la consola Direcciones lgicas 1 direccin IP por dominio.
Nmero de direcciones IP necesarias

1 direccin IP por subred. 1 direccin IP por nodo y por 1 direccin IP por nodo y

1 direccin IP por 1 direccin IP. 1 direccin IP por recurso de host lgico y por subred.

Planificacindel entorno de OracleSolaris Cluster

Para obtener ms informacin acerca de la planificacin de direcciones IP, consulte el Captulo 2, Planificacin de la red TCP/IP (tareas) de Gua de administracin del sistema:serviciosIP.

Dispositivos de acceso a la consola


Debe disponer de acceso a la consola en todos los nodos del clster. Si instala el software Cluster Control Panel en la consola de administracin, debe proporcionar el nombre de host y el nmero de puerto del dispositivo de acceso a la consola utilizado para establecer comunicacin con los nodos del clster.

S e utiliza un concentrador de terminales para establecer comunicacin entre la consola de administracin y las consolas de los nodos del clster global. El servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP) en lugar de un concentrador de terminales. El servidor Sun Fire utiliza un controlador del sistema en lugar de un concentrador de terminales.

Para obtener ms informacin sobre el acceso a la consola, consulte Oracle Solaris Cluster Concepts Guide. De forma alternativa, si conecta una consola de administracin directamente a los nodos del clster o a travs de una red de administracin, proporcione el nombre de host de cada uno de los nodos del clster y el nmero de puerto serie que se utiliza para establecer conexin con la consola o la red de administracin.

Direcciones lgicas
En cada grupo de recursos de servicios de datos que utilice una direccin lgica, se debe especificar un nombre del sistema para cada red pblica desde la que se puede acceder a la direccin lgica. Para obtener ms informacin, consulte Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Para obtener ms informacin sobre recursos y servicios de datos, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.

Redes pblicas
Las redes pblicas se comunican fuera del clster. Tenga en cuenta los siguientes aspectos al planificar la configuracin de red pblica:

Separacin de red pblica y red privada: las redes pblicas y la red privada (interconexin del clster) deben utilizar adaptadores independientes, o se deben configurar VLAN etiquetadas en adaptadores compatibles con VLAN etiquetadas y conmutadores compatibles con VLAN para que utilicen el mismo adaptador con la interconexin privada y con la red pblica. Mnimo: todos los nodos del clster deben conectarse, al menos, a una red pblica. Las conexiones de red pblica pueden utilizar diferentes subredes para los distintos nodos.

Mxim a: puede tener todas las conexiones de red pblica adicionales que permita su configuracin de hardware. Servicios escalables : todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes, o utilizar diferentes subredes que puedan enrutarse entre s. IPv4: el software Oracle Solaris Cluster admite direcciones IPv4 en la red pblica. IPv6: el software Oracle Solaris Cluster admite direcciones IPv6 en la red pblica si se dan las siguientes condiciones o restricciones:

El software Oracle Solaris Cluster no admite las direcciones IPv6 de la red pblica si la interconexin privada utiliza adaptadores SCI. El software Oracle Solaris Cluster admite las direcciones IPv6 para los servicios de datos escalables y de migracin tras error.

Grupos IPM P : cada adaptador de red pblica utilizado para el trfico de servicios de datos debe pertenecer a un grupo Multirruta de red IP (IPMP). Si no se utiliza un adaptador de red pblica para el trfico de servicios de datos, no es necesario que lo configure en un grupo IPMP. La utilidad scinstall configura automticamente un grupo IPMP de varios adaptadores para cada conjunto de adaptadores de la red pblica en el clster que utiliza la misma subred. Estos grupos se basan en sondeos. La utilidadscinstall omite los adaptadores que ya se han configurado en un grupo IPMP. Puede utilizar grupos IPMP basados en sondeos o vnculos en un clster. No obstante, los grupos IPMP basados en sondeos, que prueban la direccin IP de destino, proporcionan la mayor proteccin mediante el reconocimiento de ms condiciones que pueden poner en peligro la disponibilidad. Si un adaptador de un grupo IPMP que la utilidad scinstall configura no va a utilizarse para el trfico de servicios de datos, puede eliminar dicho adaptador del grupo. Para obtener instrucciones y directrices de configuracin de grupos IPMP, siga los procedimientos descritos en Parte VI, IPMP de Gua de administracin del sistema: serviciosIP. Para modificar los grupos IPMP despus de instalar el clster, siga las directrices que aparecen en la seccin Administracin de grupos de varias rutas de red IP en un clster de Gua de administracin del sistema de Oracle Solaris Cluster y los procedimientos del Captulo 31, Administracin de IPMP (tareas) de Gua de administracin del sistema: serviciosIP.

Compatibilidad con direcciones MAC locales: Todos los adaptadores de red pblica deben utilizar tarjetas de interfaz de red (NIC) que sean compatibles con la asignacin de direcciones MAC locales. La asignacin de direcciones MAC locales supone un requisito de IPMP. Valor de local-mac-address : la variable local-mac-address? debe utilizar el valor predeterminado true (verdadero) para los adaptadores Ethernet. El software Oracle Solaris Cluster no admite el valor false (falso) de local-mac-address? para los

adaptadores Ethernet.

Para obtener ms informacin sobre las interfaces de red pblica, consulte Oracle Solaris Cluster Concepts Guide .

Servidores del qurum


Puede utilizar el software de servidor de qurum de Oracle Solaris Cluster para configurar un equipo como servidor de qurum y, a continuacin, configurar ste como dispositivo del qurum del clster. Puede utilizar un servidor de qurum adems de los discos compartidos y los archivos NAS, o en lugar de ellos. Tenga en cuenta los siguientes aspectos al planificar el uso del servidor de qurum en una configuracin de Oracle Solaris Cluster.

Conexin de red: el equipo del servidor de qurum se conecta al clster mediante la red pblica. Hardware admitido: las plataformas de hardware compatibles con un servidor de qurum son las mismas que las de un nodo del clster global. Sistema operativo: los requisitos del software Oracle Solaris Cluster se aplican tambin al software del servidor de qurum. Servicio para varios clsteres : puede configurar un servidor de qurum como dispositivo del qurum para ms de un clster. Combinacin de hardwarey software : no es necesario que configure un servidor de qurum en la misma plataforma de hardware y software que el clster o los clsteres para los que se proporciona el qurum. Por ejemplo, un equipo basado en SPARC que se ejecute en el SO Solaris 10se puede configurar como servidor de qurum para un clster basado en x86 que se ejecute en el SO Solaris 10. Algoritmo de rbol de expansin: debe inhabilitar el algoritmo de rbol en los conmutadores Ethernet para los puertos conectados a la red pblica del clster en la que se ejecutar el servidor de qurum. Uso de un nodo del clster como servidor de qurum: puede configurar un servidor de qurum en un nodo del clster para proporcionar qurum a otros clsteres distintos al clster al que pertenece el nodo. Sin embargo, un servidor de qurum configurado en un nodo del clster no proporcionar alta disponibilidad.

Directrices de NFS
Tenga en cuenta los siguientes aspectos al planificar el uso del sistema de archivos de red (NFS) en una configuracin de Oracle Solaris Cluster.

Cliente NFS: ningn nodo de Oracle Solaris Cluster puede ser un cliente NFS de un sistema de archivos exportado de Oracle Solaris Cluster HA para NFS (HA para NFS) que se est supervisando en un nodo del mismo clster. Esta clase de montaje cruzado de HA para NFS no est permitido. Utilice el sistema de archivos del clster para compartir los archivos entre los nodos del clster. Protocolo NFSv3: si est montando sistemas de archivos en los nodos del clster desde servidores NFS externos, como archivos NAS, y est utilizando el protocolo NFSv3, no podr ejecutar montajes de cliente NFS y los servicios de datos de HA para NFS en el mismo nodo del clster. Si lo hace, determinadas actividades del servicio de datos de HA para NFS podran provocar que los daemons NFS se detengan y se reinicien, con lo cual se interrumpiran los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clster. Bloqueo: las aplicaciones que se ejecuten de forma local en el clster no deben bloquear los archivos en un sistema de archivos exportado mediante NFS. De lo contrario, el bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podra interferir en la capacidad para reiniciar el administrador de bloqueos (lockd(1M)). Durante el reinicio, se puede conceder a un proceso local bloqueado un bloqueo destinado a que un cliente remoto lo solicite. Esto podra provocar un comportamiento inesperado. Funciones de seguridad de NFS: el software Oracle Solaris Cluster no admite las siguientes opciones del comando share_nfs (1M):

secure sec=dh

Sin embargo, el software Oracle Solaris Cluster s admite las siguientes funciones de seguridad de NFS:

El uso de puertos seguros para NFS. Para habilitar los puertos seguros de NFS, agregue el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clster. El uso de Kerberos con NFS. Para obtener ms informacin, consulte Securing HA for NFS With Kerberos V5 de Oracle Solaris Cluster Data Service for Network File System (NFS) Guide. Aislamiento: los clsteres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.

Restricciones de servicio
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Oracle Solaris Cluster:

Enrutadores : no configure los nodos del clster como enrutadores (portales) por los siguientes motivos:

Es posible que los protocolos de enrutamiento difundan la interconexin del clster como una red de acceso pblico a otros enrutadores a pesar de la configuracin de IFF_PR IV ATE en las interfaces de interconexin. Los protocolos de enrutamiento pueden interferir en la migracin tras error de las direcciones IP en los nodos del clster, lo que podra afectar a la accesibilidad del cliente. Los protocolos de enrutamiento pueden poner en peligro el correcto funcionamiento de los servicios escalables al aceptar paquetes de red de cliente y soltarlos en lugar de reenviarlos a otros nodos del clster.

Servidores NIS+: no configure los nodos del clster como servidores NIS o NIS+. No hay ningn servicio de datos disponible para NIS o NIS+. Sin embargo, los nodos del clster pueden ser clientes NIS o NIS+. Servidores de inicio e instalacin: no utilice una configuracin de Oracle Solaris Cluster para proporcionar un servicio de inicio o instalacin de alta disponibilidad en los sistemas cliente. RARP : No utilice una configuracin de Oracle Solaris Cluster para proporcionar un servicio rarpd . Nmeros de programa RPC: si instala un servicio RPC en el clster, ste no debe utilizar ninguno de los siguientes nmeros de programa:

100141 100142 100248

Estos nmeros se reservan para los daemons rgmd_receptionist , fed y pmfd de Oracle Solaris Cluster, respectivamente. Si el servicio RPC que instale utiliza tambin uno de estos nmeros de programas, deber cambiarlo para que utilice un nmero de programa diferente.

Clases de programacin : el software Oracle Solaris Cluster no admite la ejecucin de clases de programacin de procesos de alta prioridad en los nodos del clster. No ejecute ninguno de los siguientes tipos de procesos en los nodos del clster:

Los procesos que se ejecutan en la clase de programacin de tiempo compartido con alta prioridad Los procesos que se ejecutan en la clase de programacin en tiempo real

El software Oracle Solaris Cluster utiliza los subprocesos del ncleo que no se ejecutan en la clase de programacin en tiempo real. Otros procesos de tiempo compartido que se ejecutan con una prioridad superior a la normal o los procesos en tiempo real pueden evitar que los subprocesos del ncleo de Oracle Solaris Cluster adquieran los ciclos de CPU necesarios.

Protocolo de tiempo de red (NTP)


Tenga en cuenta las directrices siguientes de NTP:

Sincronizacin : al configurar NTP o cualquier utilidad de sincronizacin de tiempo en el clster, el primer requisito consiste en que todos los nodos del clster deben sincronizarse al mismo tiempo. Precisin: la precisin del tiempo en los nodos es el segundo aspecto importante que debe tener en cuenta durante la sincronizacin del tiempo en los nodos. Puede configurar NTP como mejor desee siempre que se cumpla este requisito bsico de sincronizacin. Mensajes de error acerca de nodos inexistentes: a menos que haya instalado su propio archivo /etc/inet/ntp.conf , el comando scinstall instala automticamente un archivo ntp.conf predeterminado. Este archivo predeterminado incluye referencias al nmero mximo de nodos. Por lo tanto, es posible que el daemon xntpd(1M) emita mensajes de error en relacin con algunas de estas referencias durante el inicio. Puede omitir con seguridad estos mensajes. Consulte la seccin Cmo configurar Network Time Protocol (NTP) en la pgina 164 para obtener informacin acerca de cmo suprimir estos mensajes cuando se den las condiciones normales en el clster.

Consulte Oracle Solaris Cluster Concepts Guide para obtener ms informacin sobre el tiempo del clster. Consulte el archivo de plantilla /etc/inet/ntp.cluster para obtener directrices adicionales acerca de cmo establecer NTP para una configuracin de Oracle Solaris Cluster.

Componentes configurables de Oracle Solaris Cluster


En esta seccin se proporcionan directrices para los siguientes componentes de Oracle Solaris Cluster que se van a configurar:

Nombre del clster global en la pgina 33 Nombres de los nodos de votacin de clster global e identificadores de nodos en la pgina 34 Nombres de zonas en la pgina 34 Red privada en la pgina 35 Nombres de host privados en la pgina 37 Interconexin del clster en la pgina 37 Aislamiento global en la pgina 40 Dispositivos de qurum en la pgina 41

Agregue esta informacin a la plantilla de planificacin de la configuracin correspondiente.

Nombre del clster global


Especifique un nombre para el clster global durante la configuracin de Oracle Solaris

Cluster. El nombre del clster global debe ser exclusivo en toda la empresa.

Para obtener informacin sobre cmo asignar un nombre a un clster de zona, consulte la seccin clsteres de zona en la pgina 43.

Nombres de los nodos de votacin de clster global e identificadores de nodos


El nombre de un nodo de votacin de un clster global es el mismo que se asigna al host fsico o virtual durante su instalacin con el SO Solaris. Consulte la pgina de comando man hosts (4) para obtener informacin sobre los requisitos de asignacin de nombre. En las instalaciones de clsteres con un nico nodo, se utiliza de forma predeterminada el nombre del nodo de votacin. Durante la configuracin de Oracle Solaris Cluster, debe especificar los nombres de todos los nodos de votacin que va a instalar en el clster global. Se asigna un ID de nodo a cada nodo de clster para el uso intraclster, empezando por el nmero 1. Se asignan nmeros de ID de nodo a cada nodo de clster en el orden en que el nodo se convierte en un miembro del clster. Si todos los nodos de clster se configuran en una sola operacin, el nodo desde el que se ejecuta la utilidad scinstall es el ltimo al que se asigna un nmero de ID de nodo. Un nmero de ID de nodo no se puede cambiar despus de haberse asignado a un nodo de clster. Un nodo convertido en miembro del clster recibe el nmero de ID de nodo ms bajo posible. Si un nodo se elimina del clster, su ID de nodo queda disponible asignarlo a un nodo nuevo. Por ejemplo, si se elimina un clster de cuatro nodos al que se asigna el ID de nodo 3 y se agrega un nodo nuevo, a ese nodo nuevo se le asigna el ID de nodo 3, no el ID de nodo 5. Si desea que los nmeros de ID de nodo se correspondan con determinados nodos de clster, configure los nodos de clster uno a uno en el orden en que quiere asignar los nmeros de ID de nodo. Por ejemplo, para que el software del clster asigne el ID de nodo 1 a phys-schost1, configure dicho nodo como nodo patrocinador del clster. Si despus agrega phys-schost2 al clster establecido por phys-schost-1 , se asigna el ID de nodo 2 a phys-schost-2 . Para obtener informacin sobre los nombres de nodos de un clster de zona, consulte la seccin clsteres de zona en la pgina 43.

Nombres de zonas
Una zona no global con la marca native puede ser un posible nodo vlido de una lista de nodos de grupo de recursos. Utilice la convencin de nomenclatura nombre_nodo:nombre_zona para especificar una zona no global en un comando de Oracle Solaris Cluster.

nombre_nodo hace referencia al nombre de host de Solaris.

nombre_zona hace referencia al nombre asignado a la zona no global al crearla en el nodo de votacin. El nombre de la zona debe ser exclusivo en el nodo. No obstante, puede utilizar el mismo nombre de zona en diferentes nodos de votacin. El nombre de nodo diferente en nombre_nodo:nombre_zona permite que el nombre de la zona no global completa sea exclusivo en el clster.

Para especificar la zona global, slo debe indicar el nombre del nodo de votacin. Para obtener informacin sobre un clster de zonas no globales, consulte la seccin clsteres de zona en la pgina 43. Puede desactivar funciones de clster de una zona no global seleccionada. Un usuario root registrado en alguna de estas zonas no es capaz de descubrir ni interrumpir el funcionamiento del clster. Para obtener instrucciones, consulte

Red privada
Nota No es necesario configurar una red privada para un clster global con un nico host.

La utilidad scinstall asigna automticamente la direccin de red privada y la mscara de red predeterminadas, incluso aunque el clster no utilice la red privada. El software Oracle Solaris Cluster utiliza la red privada para la comunicacin interna entre los nodos y entre las zonas no globales administradas por Oracle Solaris Cluster. Una configuracin de Oracle Solaris Cluster necesita, al menos, dos conexiones con la interconexin del clster en la red privada. Al configurar el software Oracle Solaris Cluster en el primer nodo del clster, debe especificar la direccin de red privada y la mscara de red de una de las siguientes formas:

Acepte la direccin de red privada (172.16.0.0) y la mscara de red (255.255.240.0 ) predeterminadas. Este intervalo de direcciones IP admite un mximo combinado de 64 nodos de votacin y zonas no globales, un mximo de 12 clsteres de zona y un mximo de 10 redes privadas..
Nota El nmero mximo de nodos de votacin que puede admitir un intervalo de

direcciones IP no refleja el nmero mximo de nodos de votacin que puede admitir actualmente la configuracin de hardware o software.

Especifique una direccin de red privada vlida diferente y acepte la mscara de red predeterminada. Acepte la direccin de red privada predeterminada y especifique una mscara de red diferente. Especifique una direccin de red privada y una mscara de red diferentes.

Si decide especificar una mscara de red diferente, la utilidad scinstall le solicitar el nmero de nodos y de redes privadas que desea que admita el intervalo de direcciones IP. La utilidad tambin solicita que se especifique el nmero de clsteres de zona que desea permitir. El nmero de nodos del clster global que especifique debe incluir tambin el nmero previsto de zonas globales no agrupadas en un clster que utilizar la red privada. La utilidad calcula la mscara de red para el intervalo mnimo de direcciones IP que admitir el nmero de nodos, clsteres de zona y redes privadas que se haya especificado.La mscara de red calculada podra admitir un mayor nmero de nodos de los que se han especificado, incluidas las zonas no globales, los clsteres de zona y las redes privadas. La utilidad scinstall calcula tambin una segunda mscara de red que supondra la mnima para admitir el doble del nmero de nodos, clsteres de zona y redes privadas. Esta segunda mscara de red permitira que el clster pudiera dar cabida a un futuro crecimiento sin necesidad de volver a configurar el intervalo de direcciones IP. A continuacin, la utilidad le pide que seleccione la mscara de red. Puede especificar una de las mscaras de red calculadas o proporcionar una diferente. La mscara de red que especifique debe admitir como mnimo el nmero de nodos y redes privadas que ha indicado en la utilidad.
Nota Es posible que se deba cambiar el rango de direcciones IP privadas del clster para

permitir la adicin de nodos de votacin, zonas no globales, clsteres de zona o redes privadas. Para cambiar la direccin de red privada y la mscara de red una vez establecido el clster, consulte Modificacin de la direccin de red privada o del intervalo de direcciones de un clster de Gua de administracin del sistema de Oracle Solaris Cluster. Debe desactivar el clster para realizar estos cambios. Sin embargo, el clster puede permanecer en el modo de clster si se utiliza el comando cluster set-netprops para cambiar nicamente la mscara de red. Para cualquier clster de zona que se haya configurado en el clster, deben actualizarse tambin las subredes IP privadas y las direcciones IP privadas correspondientes que se hayan asignado a ese clster de zona. Si especifica una direccin de red privada diferente a la predeterminada, sta debe cumplir los siguientes requisitos:

Tamao de la direccin y la mscara de red: la direccin de red privada debe ser inferior a la mscara de red. Por ejemplo, puede utilizar la direccin de red privada 172.16.10.0 con la mscara de red 255.255.255.0. Sin embargo, no puede utilizar la direccin de red privada 172.16.10.0 con la mscara de red 255.255.0.0 . Direcciones: la direccin debe estar incluida en el bloque de direcciones que RFC 1918 reserva para su uso en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en lnea en http://www.rfcs.org. Uso en varios clsteres: puede utilizar la misma direccin de red privada en ms de un

clster, siempre que los clsteres se encuentren en redes privadas diferentes. No se puede acceder a las direcciones IP de red privada fuera del clster.

Los dominios invitados de Sun Sun Logical Domains (LDoms) que se han creado en el mismo equipo fsico y que se encuentran conectados al mismo conmutador virtual comparten la misma direccin de red, que est visible para todos ellos. Tenga cuidado al especificar un intervalo de direcciones IP de red privada en la utilidad scinstall para su uso por parte de los dominios invitados. Asegrese de que el intervalo de direcciones no est siendo utilizado por otro dominio que resida en el mismo equipo fsico y que comparta el conmutador virtual.

VLAN compartidas por varios clsteres: las configuraciones de Oracle Solaris Cluster permiten compartir la misma VLAN de interconexin privada entre varios clsteres. No es necesario configurar una VLAN independiente para cada clster. No obstante, limitar el uso de una VLAN a un solo clster ofrece mejor capacidad de aislamiento de errores y una interconexin ms resistente. IPv6: el software Oracle Solaris Cluster no admite las direcciones IPv6 para la interconexin privada. A pesar de ello, el sistema s configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Sin embargo, no se utilizan estas direcciones IPv6 en la comunicacin entre los nodos en la red privada.

Consulte el Captulo 2, Planificacin de la red TCP/IP (tareas) de Gua de administracin del sistema:serviciosIP para obtener ms informacin sobre las redes privadas.

Nombres de host privados


El nombre de host privado es aquel que se utiliza para la comunicacin entre los nodos a travs de una interfaz de red privada. Los nombres de host privados se crean automticamente durante la configuracin de un clster global o de zona en Oracle Solaris Cluster. Estos nombres de host siguen la siguiente convencin de nomenclatura: clusternode id_nodo -priv , donde id_nodo hace referencia al valor numrico del ID de nodo interno. Durante la configuracin de Oracle Solaris Cluster, el nmero de ID de nodo se asigna a cada nodo de votacin cuando ste se convierte en miembro del clster. Un nodo de votacin de clster global y un nodo de un clster de zona pueden tener el mismo nombre de host privado, pero cada nombre de host se resuelve en una direccin IP de red privada diferente. Una vez configurado el clster global, puede cambiar los nombres de host privados mediante la utilidad clsetup(1CL) . Actualmente no se puede cambiar el nombre de host de un nodo de clster de zona. La creacin de un nombre de host privado para una zona no global es opcional. No hay ninguna convencin de nomenclatura para el nombre de host privado de una zona no global.

Interconexin del clster


Las interconexiones del clster proporcionan rutas de hardware para la comunicacin de

redes privadas entre los nodos del clster. Cada interconexin consta de un cable que se conecta de uno de los siguientes modos:

Entre dos adaptadores de transporte

Entre un adaptador y un conmutador de transporte

Para obtener ms informacin acerca de la finalidad y la funcin de la interconexin del clster, consulte Cluster Interconnect de Oracle Solaris Cluster Concepts Guide.
Nota No es necesario configurar una interconexin del clster para un clster con un nico

host. No obstante, si cree que es posible que necesite agregar nodos a la configuracin del clster con un nico nodo en el futuro, es recomendable que configure la interconexin del clster para usos posteriores. Durante la configuracin de Oracle Solaris Cluster, debe especificar la informacin de configuracin para una o varias interconexiones del clster.

Si el nmero de puertos disponibles del adaptador es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador en las redes pblica y privada. Para obtener ms informacin, consulte las directrices relacionadas con los adaptadores VLAN etiquetadas en Adaptadores de transporte en la pgina 38. Puede configurar de una a seis interconexiones en un clster. Aunque una nica interconexin del clster reduce el nmero de adaptadores utilizados para la interconexin privada, sta no proporciona ninguna redundancia y ofrece una menor disponibilidad. Si la interconexin nica presenta errores, existe un alto riesgo de que el clster tenga que realizar una recuperacin automtica. Siempre que sea posible, instale dos o ms interconexiones del clster para proporcionar redundancia y escalabilidad y, por lo tanto, una mayor disponibilidad, lo que permite evitar la presencia de un punto de error nico.

Puede configurar interconexiones del clster adicionales (hasta seis en total), una vez establecido el clster mediante la utilidad clsetup (1CL). Para obtener directrices sobre el hardware de interconexin del clster, consulte Interconnect Requirements and Restrictions de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener informacin general acerca de la interconexin del clster, consulte Cluster-Interconnect Components de Oracle Solaris Cluster Overview y Oracle Solaris Cluster Concepts Guide.

Adaptado res de transporte


Para los adaptadores de transporte como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores y el tipo de transporte. Si utiliza una configuracin de clster con dos hosts, indique si la interconexin es una conexin de punto a punto (de adaptador a adaptador) o si emplea un conmutador de transporte. Tenga en cuenta las siguientes directrices y restricciones:

IPv6: el software Oracle Solaris Cluster no admite las comunicaciones IPv6 a travs de interconexiones privadas.

Asignacin de direcciones MAC locales: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan asignaciones de direcciones MAC locales. Las direcciones IPv6 de vnculo local, necesarias para que los adaptadores de red privada admitan direcciones de red pblica IPv6, se obtienen a partir de las direcciones MAC locales. Adaptadores de VLAN etiquetadas : el software Oracle Solaris Cluster admite redes de rea local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexin del clster privada y la red pblica. Para configurar un adaptador de VLAN etiquetada para la interconexin del clster, especifique el nombre del adaptador y el ID de VLAN (VID) de una de las siguientes formas:

Especifique el nombre habitual del adaptador, que es el nombre del dispositivo ms el nmero de instancia o el punto fsico de conexin (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sera ce2. Si la utilidad scinstall le pregunta si el adaptador forma parte de una LAN virtual compartida, responda yes (s) y especifique el nmero de VID del adaptador. Identifique el adaptador por su nombre de dispositivo virtual VLAN. Este nombre est compuesto por el nombre del adaptador ms el nmero de instancia de VLAN. El nmero de instancia de VLAN se obtiene mediante la frmula (1000*V)+N, siendo V el nmero de VID y N el PPA. Por ejemplo, para VID 73 en el adaptador ce2, el nmero de instancia de VLAN se calcula de la siguiente forma: (1000*73)+2.Por lo tanto, especificar ce73002 como nombre del adaptador para indicar que forma parte de una LAN virtual compartida.

Para obtener informacin sobre cmo configurar una VLAN en un clster, consulte Configuring VLANs as Private Interconnect Networks de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener informacin general sobre VLAN, consulte Administracin de redes de rea local virtuales de Gua de administracin del sistema: serviciosIP.

Dominios invitados de SPARC: Sun Logical Domains: especifique los adaptadores mediante su nombre virtual, vnetN, por ejemplo vnet0 y vnet1. Los nombres de adaptadores virtuales se registran en el archivo /etc/path_to_inst . Interfaces de red lgicas: las interfaces de red lgicas se reservan para que las utilice el software Oracle Solaris Cluster.

Consulte el conjunto scconf_trans_adap_*(1M) de pginas de comando man para obtener informacin acerca de un adaptador de transporte especfico.

Conmutado res de transporte


Si utiliza conmutadores de transporte como, por ejemplo, un conmutador de red, especifique uno para cada interconexin. Puede utilizar el nombre predeterminado switchN, donde N hace referencia al nmero asignado automticamente durante la configuracin o, si lo prefiere, cree otro nombre.

Especifique tambin el nombre del puerto de conmutacin o acepte el nombre predeterminado. El nombre de puerto predeterminado es idntico al nombre de ID de nodo interno del host de Solaris que aloja el extremo del cable asociado al adaptador. Sin embargo, para ciertos tipos de adaptadores el nombre de puerto predeterminado no es vlido.
Nota Los clsteres con tres o ms nodos de votacin deben utilizar conmutadores de

transporte. Slo se admite la conexin directa entre los nodos de votacin para los clsteres con dos hosts. Si se realiza una conexin directa en un clster con dos hosts, an puede especificar un conmutador de transporte para la interconexin.
Consejo Si especificaun conmutador de transporte, podr agregar ms fcilmente otro nodo

de votacin al clster en el futuro.

Aislamiento global
El aislamiento es un mecanismo utilizado por el clster para proteger la integridad de los datos de un disco compartido durante las situaciones en las que una particin del clster cree que la otra particin est inactiva ("cerebro dividido"). En el modo tpico, scinstall deja habilitada de forma predeterminada el aislamiento global y cada disco compartido de la configuracin utiliza la opcin predeterminada de aislamiento global pathcount. Con la opcin pathcount, se selecciona el protocolo de aislamiento para cada disco compartido en funcin del nmero de rutas de DID asociadas al disco. En el modo personalizado, la utilidad scinstall le pregunta si desea habilitar el aislamiento global. En la mayora de los casos, debe responder N o para mantener habilitado el aislamiento global. Sin embargo, puede inhabilitar el aislamiento global en las siguientes situaciones:
Precaucin Si inhabilita el aislamiento en situaciones distintas a las descritas a continuacin,

es posible que los datos puedan daarse durante la migracin tras error de la aplicacin. Estudie atentamente la posibilidad de que se daen los datos si decide desactivar el aislamiento.

El almacenamiento compartido no admite las reservas SCSI. Si desactiva el aislamiento para un disco compartido que configura a continuacin como dispositivo del qurum, este dispositivo utilizar el protocolo de qurum del software. Esta accin se lleva a cabo independientemente de si el disco admite el protocolo SCSI-2 o SCSI-3.El qurum del software es un protocolo de Oracle Solaris Cluster que emula

un formato de Reservas de grupo persistente (PGR) SCSI.

Desea habilitar sistemas que se encuentran fuera del clster para obtener acceso al almacenamiento conectado al clster.

Si inhabilita el aislamiento global durante la configuracin del clster, esta funcin se desactivar para todos los discos compartidos del clster. Una vez configurado el clster, puede cambiar el protocolo de aislamiento global o anular el protocolo de aislamiento de discos compartidos individuales. Sin embargo, para cambiar el protocolo de aislamiento de un dispositivo del qurum, debe configurar primero este dispositivo. A continuacin, establezca el nuevo protocolo de aislamiento del disco y vuelva a configurarlo en un dispositivo del qurum. Para obtener ms informacin sobre el comportamiento de la funcin de aislamiento, consulte Failfast Mechanism de Oracle Solaris Cluster Concepts Guide. Para obtener ms informacin sobre cmo establecer el protocolo de aislamiento de discos compartidos individuales, consulte la pgina de comando man cldevice(1CL) . Para obtener ms informacin sobre la configuracin del aislamiento global, consulte la pgina de comando man cluster (1CL).

Dispositivos de qurum
Las configuraciones de Oracle Solaris Cluster usan dispositivos del qurum para mantener la integridad de los datos y de los recursos. Si el clster pierde temporalmente la conexin con un nodo de votacin, el dispositivo del qurum evita los problemas de "amnesia" o "cerebro divido" cuando el nodo intente unirse de nuevo al clster. Para obtener ms informacin sobre la finalidad y la funcin de los dispositivos del qurum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide. Durante la instalacin de Oracle Solaris Cluster de un clster con dos hosts, puede optar por permitir que la utilidad scinstall configure automticamente como dispositivo del qurum un disco compartido disponible en la configuracin. Entre los discos compartidos, se incluye cualquier dispositivo Sun NAS configurado para su uso como disco compartido. La utilidad scinstall presupone que todos los discos de almacenamiento compartido disponibles son aptos para convertirse en dispositivos del qurum. Si desea utilizar un servidor de qurum, un dispositivo Oracle Sun Storage 7000 Unified Storage System NAS o un dispositivo Network Appliance NAS como dispositivo del qurum, debe configurarlo una vez finalizado el procesamiento de scinstall . Despus de la instalacin, puede configurar tambin dispositivos del qurum adicionales mediante la utilidad clsetup (1CL).
Nota No es necesario que configure dispositivos del qurum para un clster con un nico host.

Si la configuracin del clster incluye dispositivos de almacenamiento compartido de terceros que no se pueden utilizar como dispositivos del qurum, debe usar la utilidad clsetup para configurar el qurum manualmente.

Tenga en cuenta los siguientes puntos al planificar los dispositivos del qurum.

Mnimo: un clster con dos nodos debe tener como mnimo un dispositivo del qurum, que puede ser un disco compartido, un servidor de qurum o un dispositivo NAS. Para las dems topologas, los dispositivos del qurum son opcionales. Regla del nmero impar: si se configuran varios dispositivos del qurum en un clster con dos hosts o en un par de hosts conectados directamente al dispositivo del qurum, configure un nmero impar de dispositivos del qurum. Esta configuracin garantiza que los dispositivos del qurum presenten rutas de error completamente independientes. Distribucin de los votos del qurum: para obtener la mayor disponibilidad del clster, asegrese de que el nmero total de votos proporcionados por los dispositivos del qurum sea inferior al nmero de votos proporcionados por los nodos. De lo contrario, los nodos no podrn formar un clster si ninguno de los dispositivos del qurum est disponible, incluso aunque todos los nodos estn en funcionamiento. Conexin: debe conectar un dispositivo del qurum a, como mnimo, dos nodos de votacin. Protocolo de aislamiento SCSI: al configurar un dispositivo del qurum de discos compartidos SCSI, su protocolo de aislamiento se establece automticamente en SCSI-2 en un clster con dos hosts o en SCSI-3 en un clster con tres o ms nodos de votacin. Cambio del protocolo de aislamiento de los dispositivos del qurum: para los discos SCSI configurados como dispositivos del qurum, debe anular la configuracin de estos dispositivos antes de habilitar o inhabilitar su protocolo de aislamiento SCSI. Protocolo del qurum del software: puede configurar como dispositivos del qurum discos compartidos compatibles que no admitan el protocolo SCSI como, por ejemplo, discos SATA. Debe habilitar el aislamiento para estos discos. A continuacin, los discos utilizarn el protocolo del qurum del software, que emula las reservas PGR SCSI. Los discos compartidos SCSI utilizarn tambin el protocolo del qurum del software si se ha inhabilitado el aislamiento para estos discos.

Dispositivos repetidos: el software Oracle Solaris Cluster no admite dispositivos repetidos como dispositivos del qurum. Grupos de almacenamiento ZFS: no agregue un dispositivo del qurum configurado a un grupo de almacenamiento ZFS. Si se agrega un dispositivo del qurum a un grupo de almacenamiento ZFS, el disco se reetiqueta como disco EFI y se pierde la informacin de configuracin del qurum. El disco ya no podr proporcionar un voto del qurum al clster. Una vez que haya un disco en el grupo de almacenamiento, puede configurarlo como dispositivo del qurum. Tambin puede anular la configuracin del dispositivo del qurum, agregar el disco al grupo de almacenamiento y, a continuacin, volver a configurarlo como dispositivo del qurum.

Para obtener ms informacin sobre los dispositivos del qurum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide y Quorum Devices de

Oracle Solaris Cluster Overview.

clsteres de zona
Un clster de zona consiste en un clster de zonas de contenedores Solaris no globales. Todos los nodos de un clster de zona se configuran como zonas no globales de la marca cluster . No se permite ningn otro tipo de marca en un clster de zona. Puede ejecutar servicios compatibles en el clster de zona del mismo modo que en un clster global, con el aislamiento proporcionado por las zonas de Solaris. Tenga en cuenta los siguientes puntos al planificar la creacin de un clster de zona.

Requisitos y directrices del clster global en la pgina 43 Requisitos y directrices de los clsteres de zona en la pgina 44 Directrices para Trusted Extensions en un clster de zona en la pgina 45

Requisitos y directrices del clster global

Clster global : el clster de zona debe establecerse en una configuracin de Oracle Solaris Cluster global. Un clster de zona puede configurarse sin un clster global subyacente. Modo de clster: el nodo de votacin de clster global desde el que se crea o modifica un clster de zona debe encontrarse en el modo de clster. Si, al administrar un clster de zona, los dems nodos de votacin se encuentran en el modo sin clster, los cambios realizados se propagarn a esos nodos al volver al modo de clster. Direcciones IP privadas adecuadas : el intervalo de direcciones IP privadas del clster global debe disponer de suficientes subredes de direcciones IP libres para el nuevo clster de zona. Si el nmero de subredes disponibles es insuficiente, la creacin del clster de zona presentar errores. Cambios en el intervalo de direcciones IP privadas: las subredes IP privadas y sus correspondientes direcciones IP privadas disponibles para los clsteres de zona se actualizan automticamente si se modifica el intervalo de direcciones IP privadas del clster global. Si se elimina un clster de zona, la infraestructura de clster libera las direcciones IP privadas utilizadas por ste, lo que permite que las direcciones estn disponibles para su uso en el clster global y por parte de los dems clsteres de zona que dependan del clster global. Dispositivos admitidos: los dispositivos compatibles con las zonas de Solaris pueden exportarse a un clster de zona. Entre estos dispositivos, se incluyen los siguientes:

Dispositivos de disco de Solaris (cNtXdYsZ) Dispositivos DID (/dev/did/*dsk/d N) Conjuntos de discos de Solaris Volume Manager y Solaris Volume Manager for Sun Cluster para varios propietarios (/dev/md/ setname/*dsk/d N)

Requisitos y directrices de los clsteres de zona

Distribucin de los nodos: no se pueden alojar varios nodos del mismo clster de zona en el mismo equipo del nodo. Un host puede admitir varios nodos de clster de zona siempre y cuando cada clster de zona de ese host sea miembro de un clster de zona diferente. Creacin de nodos: debe crear, al menos, un nodo durante la creacin del clster de zona. El nombre del nodo de clster de zona debe ser exclusivo en el clster de zona. La infraestructura crea automticamente una zona no global subyacente en cada host que admite el clster de zona. Cada zona no global recibe el mismo nombre, que se obtiene del nombre asignado al clster de zona durante la creacin del clster, por lo que es idntico a ste. Por ejemplo, si crea un clster de zona con el nombre zc1, el nombre de la zona no global correspondiente en cada host que admite el clster de zona tambin es zc1. Nombre del clster: cada nombre de clster de zona debe ser exclusivo en todo el clster de mquinas que alojan el clster global. Este nombre de clster de zona no puede utilizarse para ninguna zona global en ninguna parte del clster de equipos. Tampoco puede ser idntico al de un nodo del clster global. No se pueden utilizar "all" (todos) o "global" como nombres del clster de zona ya que estn reservados. Direcciones IP de red pblica: asigne una direccin IP de red pblica especfica a cada nodo del clster de zona. Nombres de host privados: durante la creacin del clster de zona, se crea automticamente un nombre de host privado para cada nodo de este clster del mismo modo que para los clsteres globales. Actualmente no se puede cambiar el nombre de host de un nodo de clster de zona. Para obtener ms informacin sobre los nombres de host privados, consulte la seccin Nombres de host privados en la pgina 37. Marca de zonas de Solaris: todos los nodos de un clster de zona se configuran como zonas no globales de la marca cluster . No se permite ningn otro tipo de marca en un clster de zona. Propiedad de tipo de recurso Global_zone=TRUE: para registrar un tipo de recurso que utiliza la propiedad de tipo de recurso Global_zone=TRUE, el archivo de tipo de recurso debe ubicarse en el directorio /usr/cluster/global/rgm/rtreg/ del clster de zona. Si ese archivo de tipo de recurso se encuentra en otra ubicacin, se rechaza el comando para registrar el tipo de recurso. Conversin a un nodo de clster de zona: no se puede agregar a un clster de zona una zona no global que se encuentre fuera de ese clster de zona. Debe usarse solamente el comando clzonecluster para agregar nodos nuevos a un clster de zona. Sistemas de archivos: puede utilizar el comando clzonecluster para agregar los siguientes tipos de sistemas de archivos para su uso por parte de un clster de zona. Un sistema de archivos se exporta a un clster de zona mediante un montaje directo o un montaje en bucle invertido.

Por montaje directo:

Sistema local de archivos UFS

Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS, slo cuando se utiliza para admitir el uso de Oracle Real Application Clusters ZFS (exportado como conjunto de datos) N FS desde dispositivos NAS admitidos Sistema local de archivos UFS Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS, slo cuando se utiliza para admitir sistema de archivos U FS del clster de Oracle Real Application Clusters Sistema local de archivos del clster VxFS

Por montaje en bucle invertido:


Puede configurar un recurso de HAStoragePlus o ScalMountPoint para administrar el montaje del sistema de archivos. Para agregar a un clster de zona un sistema de archivos local no administrado por un recurso del clster, lo que se hace en este caso es ejecutar el comando zonecfg del mismo modo que en un sistema independiente. Si lo desea, tambin puede configurar un dispositivo de almacenamiento en un clster de zona y, a continuacin, montar manualmente el sistema de archivos local en ese dispositivo de almacenamiento.

Aislamiento: los clsteres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.

Directrices para Trusted Extensions en un clster de zona


Tenga en cuenta los puntos siguientes al utilizar la funcin Trusted Extensions de Oracle Solaris en un clster de zona:

Admisin slo de clster de zona: en una configuracin de Oracle Solaris Cluster con la funcin Trusted Extensions habilitada, las aplicaciones deben ejecutarse nicamente en un clster de zona. En el clster no pueden utilizarse otras zonas no globales. Para crear un clster de zona debe utilizarse solamente el comando clzonecluster . No utilice el comando txzonemgr para crear una zona no global en un clster que tenga habilitada la funcin Trusted Extensions. mbito de Trusted Extensions: la funcin Trusted Extensions puede habilitarse o inhabilitarse para toda la configuracin del clster. Si Trusted Extensions est habilitada, todas las zonas no globales en la configuracin del clster deben pertenecer a un clster de zona. No se puede configurar cualquier otro tipo de zona no global sin poner en riesgo la seguridad.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Direcciones IP: cada clster de zona que emplee Trusted Extensions debe utilizar sus propias direcciones IP. La funcin de red especial de Trusted Extensions que permite compartir una direccin IP entre varias zonas no globales no es compatible con el software Oracle Solaris Cluster. Montajes en bucle invertido: no se pueden utilizar montajes en bucle invertido que dispongan de permiso de escritura en un clster de zona que emplea la funcin Trusted Extensions. Utilice nicamente montajes directos de sistemas de archivos que permitan el acceso de escritura, o bien montajes en bucle invertido que cuenten con permisos de slo lectura. Sistemas de archivos: no configure en el clster de zona el dispositivo global que subyazga en un sistema de archivos. Configure nicamente el sistema de archivos en el clster de zona. Nombre del dispositivo de almacenamiento: no agregue un segmento individual de un dispositivo de almacenamiento a un clster de zona. Debe agregarse todo el dispositivo a un solo clster de zona. El uso de segmentos del mismo dispositivo de almacenamiento en diferentes clsteres de zona pone en riesgo la seguridad de esos clsteres. Instalacin de aplicaciones: instale aplicaciones slo en el clster de zona o en el clster global; a continuacin, exporte al clster de zona mediante montajes en bucle invertido de slo lectura. Aislamiento de clsteres de zona: al utilizarse Trusted Extensions, el nombre de un clster de zona es una etiqueta de seguridad. En algunos casos, la propia etiqueta de seguridad puede ser informacin confidencial que no debe mostrarse, como tambin lo pueden ser el nombre de un recurso o de un grupo de recursos. Al configurar una dependencia o una afinidad de recursos entre clsteres, el nombre del otro clster y el de cualquier recurso o grupo de recursos afectado llegan a hacerse visibles. Por lo tanto, antes de establecer una relacin entre clsteres, considere si esta informacin puede mostrarse teniendo en cuenta sus requisitos.

Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster
En esta seccin se proporcionan las siguientes directrices para planificar los dispositivos globales y los sistemas de archivos del clster:

Dispositivos globales en la pgina 47 Grupos de dispositivos en la pgina 47 Sistemas de archivos del clster en la pgina 48 Seleccinde las opciones de montaje para los sistemas de archivos del clster en la pgina 50 Informacin de montaje para los sistemas de archivos del clster en la pgina 52

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Dispositivos globales
Para obtener informacin sobre la finalidad y la funcin de los dispositivos globales, consulte Shared Devices, Local Devices, and Device Groups de Oracle Solaris Cluster Overview y Global Devices de Oracle Solaris Cluster Concepts Guide. El software Oracle Solaris Cluster no necesita ningn diseo de disco o tamao de sistema de archivos especficos. Tenga en cuenta los siguientes puntos al planificar el diseo de los dispositivos globales.

Creacin de reflejos: debe crear reflejos de todos los dispositivos globales para que el dispositivo pueda considerarse de alta disponibilidad. No es necesario que utilice el reflejo del software si el dispositivo de almacenamiento proporciona RAID de hardware, as como rutas redundantes a los discos. Discos: al crear reflejos, distribuya los sistemas de archivos de tal forma que se reflejen en las matrices de disco. Disponibilidad: debe conectar fsicamente un dispositivo global a ms de un nodo de votacin de clster para que se considere de alta disponibilidad. Un dispositivo global con varias conexiones fsicas puede tolerar el error de un nico nodo. Se admite el uso de un dispositivo global con una nica conexin fsica, aunque es posible que no se pueda acceder a ste desde otros de votacin si el nodo de la conexin se encuentra inactivo. Dispositivos de intercambio: no cree un archivo de intercambio en un dispositivo global. Zonas no globales: no se puede acceder directamente a los dispositivos globales desde una zona no global. Slo se puede acceder a los datos del sistema de archivos del clster desde una zona no global.

Grupos de dispositivos
Para obtener informacin sobre la finalidad y la funcin de los grupos de dispositivos, consulte Shared Devices, Local Devices, and Device Groups de Oracle Solaris Cluster Overview y Device Groups de Oracle Solaris Cluster Concepts Guide. Agregue esta informacin de planificacin a la Hoja de trabajo para la configuracin de grupos de dispositivos en la pgina 277. Tenga en cuenta los siguientes puntos al planificar los grupos de dispositivos.

Migracin tras error: puede establecer discos multihost y dispositivos del administrador de volmenes configurados correctamente como dispositivos de migracin tras error. La correcta configuracin de un dispositivo del administrador de volmenes incluye discos multihost y la correcta configuracin del propio administrador de volmenes. Esta configuracin garantiza que varios nodos de votacin puedan alojar el dispositivo exportado. No se pueden configurar unidades de cinta, CD-ROM o DVD-ROM, o dispositivos de un solo puerto como dispositivos de migracin tras error.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Creacin de reflejos: debe crear reflejos de los discos para proteger los datos ante un posible error. Consulte la seccin Directrices de creacin de reflejos en la pgina 58 para obtener directrices adicionales. Consulte la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 y la documentacin del administrador de volmenes para obtener instrucciones sobre la creacin de reflejos. Repeticin basada en almacenamiento: deben repetirse todos los discos de un grupo de dispositivos o no debe repetirse ninguno. No se puede utilizar una combinacin de discos repetidos y no repetidos en un grupo de dispositivos.

Sistemas de archivos del clster


Para obtener informacin sobre la finalidad y la funcin de los sistemas de archivos del clster, consulte Cluster File Systems de Oracle Solaris Cluster Overview y Cluster File Systems de Oracle Solaris Cluster Concepts Guide.
Nota Puede configurar de forma alternativa sistemas de archivos locales de alta

disponibilidad. De esta forma, puede obtener un mayor rendimiento, lo que le permitir usar servicios de datos con un alto nivel de E/S o determinadas funciones del sistema de archivos que no se admiten en un sistema de archivos del clster. Para obtener ms informacin, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Tenga en cuenta los siguientes puntos al planificar los sistemas de archivos del clster.

Cuotas : no se admiten las cuotas en los sistemas de archivos del clster. Sin embargo, s se admiten en los sistemas de archivos de alta disponibilidad. Zonas no globales: si se va acceder a un sistema de archivos del clster desde una zona no global, ste debe montarse primero en la zona global. A continuacin, se monta el sistema de archivos del clster en la zona no global mediante un mtodo de bucle invertido. Por lo tanto, debe habilitarse el sistema de archivos de bucle invertido (LOFS) en un clster con zonas no globales. Clsteres de zona: no se puede utilizar sistemas de archivos del clster que usen UFS o VxFS en un clster de zona. En su lugar, utilice sistemas de archivos locales de alta disponibilidad. Puede utilizar un sistema de archivos QFS compartido en un clster de zona, pero slo para permitir el uso de Oracle RAC. Sistema de archivos de bucle invertido (Loopback File System, LOFS): al crear un clster, LOFS est habilitado por defecto. Debe inhabilitar manualmente LOFS en cada nodo de votacin de clster si ste cumple las dos condiciones siguientes:

Oracle Solaris Cluster HA para NFS (HA para NFS) se ha configurado en un sistema de archivos local de alta disponibilidad.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Se est ejecutando el daemon automountd.

Si el clster cumple estas dos condiciones, debe inhabilitar LOFS para evitar problemas de conmutacin u otro tipo de errores. Si el clster cumple slo con una de estas condiciones, podr habilitar de forma segura LOFS. Si es necesario habilitar LOFS y el daemon automountd, excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS.

Archivos de registro de contabilidad de procesos: no incluya archivos de registro de contabilidad de procesos en un sistema de archivos del clster o en un sistema de archivos local de alta disponibilidad. Es posible que las acciones de escritura bloqueen una conmutacin, lo que provocara el bloqueo del nodo. Incluya los archivos de registro de contabilidad de procesos slo en un sistema de archivos local. Puntos finales de comunicacin: el sistema de archivos del clster no admite ninguna de las funciones de sistema de archivos del software de Solaris en la que incluya un punto final de comunicacin en el espacio de nombres del sistema de archivos.

Aunque se puede crear un socket de dominio de UNIX cuyo nombre sea el nombre de la ruta al sistema de archivos del clster, el socket no sobrevivira a un proceso de migracin tras error de un nodo. No se podr acceder globalmente a ningn FIFO o conducto con nombre que se cree en un sistema de archivos del clster.

Por lo tanto, no intente utilizar el comando fattach desde ningn nodo distinto al nodo local.

Archivos especiales el dispositivo: no se admiten los archivos especiales de bloques ni caracteres en un sistema de archivos del clster. Para especificar un nombre de ruta a un nodo del dispositivo en un sistema de archivos del clster, cree un vnculo simblico al nombre del dispositivo en el directorio /dev. No utilice el comando m knodpara realizar esta tarea. atime: los sistemas de archivos del clster no mantienen el elemento atime . ctime: si se accede a un archivo de un sistema de archivos del clster, es posible que se retrase la actualizacin del elemento ctime del archivo. Instalacin de aplicaciones: si desea que los archivos binarios de una aplicacin de alta disponibilidad residan en un sistema de archivos del clster, instale la aplicacin una vez configurado el sistema de archivos del clster. Adems, si la aplicacin se instala mediante el programa installer de y depende de los componentes compartidos, instale estos componentes en todos los nodos del clster en los que no se haya instalado la aplicacin.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Seleccin de las opciones de montaje para los sistemas de archivos del clster
En esta seccin se describen los requisitos y las restricciones para los siguientes tipos de sistemas de archivos del clster:

Sistemas de archivos UFS del clster en la pgina 50 Sistemas de archivos VxFS del clster en la pgina 51

Nota Tambin puede configurar estos y otros tipos de sistemas de archivos como sistemas

de archivos locales de alta disponibilidad. Para obtener ms informacin, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide. Siga estas directrices para determinar las opciones de montaje que se utilizarn al crear los sistemas de archivos del clster.

Sistemas de archivos U FSdel clster


Opcin de montaje Sintaxis Descripcin

global logging forcedirectio

Necesaria Necesaria Condicional

Esta opcin permite que el sistema de archivos est visible globalmente en todos los nodos del clster. Esta opcin habilita el registro. Esta opcin slo es necesaria para los sistemas de archivos del clster que alojen archivos de registro, archivos de control y archivos de datos RDBMS de Oracle Real Application Clusters

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Opcin de montaje Sintaxis Descripcin

onerror=panic

Necesaria

No es necesario especificar de forma explcita la opcin onerror=panic en el archivo /etc/vfstab . Esta opcin de montaje es el valor predeterminado si no se ha especificado ninguna otra opcin de montaje onerror .
Nota El software Oracle Solaris Cluster slo admite la opcin de montaje

onerror=panic . No utilice las opciones de montaje onerror=umount u onerror=lock . Estas opciones de montaje no se admiten en los sistemas de archivos del clster por los siguientes motivos: El uso de la opcin de montaje onerror=umount u onerror=lock puede provocar que el sistema de archivos del clster se bloquee o se vuelva inaccesible. Puede presentarse esta situacin si se han producido daos en los archivos del sistema de archivos del clster.

La opcin de montaje onerror=umount o onerror=lock puede provocar que no se pueda desmontar el sistema de archivos. A consecuencia de esta situacin, es posible que las aplicaciones que utilicen el sistema de archivos del clster se bloqueen o no puedan cerrarse.

Es posible que deba reiniciarse el nodo para que se recupere de estos estados. syncdir Opcional Si se especifica la opcin syncdir , se garantiza el comportamiento del sistema de archivos compatible con POSIX para la llamada del sistema write() . Si la operacin write() se realiza satisfactoriamente, esta opcin de montaje garantiza que hay suficiente espacio en el disco. Si no se especificasyncdir , se produce el mismo comportamiento que se ha detectado en los sistemas de archivos UFS. Al no especificarla opcin syncdir , es posible que el rendimiento de las operaciones de escritura que asignan bloques de discos como, por ejemplo, la adicin de datos a un archivo, mejore significativamente.Sin embargo, en algunos casos, sin la opcin syncdir , es posible que no se detecte una condicin de espacio insuficiente (E N O S P)C hasta que se cierre el archivo. Puede ver cmo E N O S P se C cierra slo durante un periodo de tiempo muy breve despus de producirse una migracin tras error. Al igual que ocurre con el comportamiento de POSIX, con syncdir , la condicin de espacio insuficiente se detecta antes de cerrar el archivo.

Consulte la pgina de comando man mount_ufs(1M) para obtener ms informacin sobre las opciones de montaje UFS.

Sistemas de archivos V xFSdel clster


Opcin de montaje Sintaxis Descripcin

global

Necesaria

Esta opcin permite que el sistema de archivos est visible globalmente en todos los nodos del clster.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Opcin de montaje Sintaxis Descripcin

log

Necesaria

Esta opcin habilita el registro.

Consulte la pgina de comando man de VxFS mount_vxfs y Informacin general sobre la administracin de sistemas de archivos de clsters de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin sobre las opciones de montaje de VxFS.

Informacin de montaje para los sistemas de archivos del clster


Tenga en cuenta los siguientes puntos al planificar los puntos de montaje de los sistemas de archivos del clster.

Ubicacin de los puntos de montaje: cree puntos de montaje para los sistemas de archivos del clster en el directorio /global a menos que lo prohban los dems productos de software. Mediante el uso del directorio /global , puede distinguir ms fcilmente los sistemas archivos del clster, que se encuentran disponibles globalmente, de los sistemas de archivos locales. SPARC: Requisito de montaje de VxFS: si se utiliza Sistema de archivos de Veritas (VxFS), monte y desmonte globalmente un sistema de archivos VxFS desde el nodo primario. El nodo primario es el host de Solaris que controla el disco en el que reside el sistema de archivos VxFS. Este mtodo garantiza una correcta operacin de montaje o desmontaje. Si se realiza una operacin de montaje o desmontaje del sistema de archivos VxFS desde un nodo secundario, es posible que sta presente errores. SPA R C : Restricciones de las funciones de VxFS: Las siguientes funciones de VxFS no son compatibles con un sistema de archivos de clster de Oracle Solaris Cluster. Sin embargo, s son compatibles en un sistema de archivos local.

E/S rpida Instantneas Puntos de control de almacenamiento Opciones de montaje especficas de VxFS:

convosync (Convertir O_SYNC) mincache qlog, delaylog , tmplog

Sistema de archivos de clster de Veritas (requiere VxVM, funcin de clster y Veritas Cluster Server). La funcin de clster de VxVM no es compatible con los sistemas basados en x86.

Se pueden usar notificaciones de la memoria cach, pero slo surten efecto en el

nodo concreto.

Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster

Planificacinde la administracinde volmenes

Todas las dems funciones y opciones de VxFS compatibles con un sistema de archivos de clster, tambin son compatibles con el software Oracle Solaris Cluster Consulte la documentacin de VxFS para obtener ms informacin sobre las opciones de VxFS que se admiten en una configuracin de clster.

Anidacin de puntos de montaje: por lo general, no debera anidar los puntos de montaje de los sistemas de archivos del clster. Por ejemplo, no configure un sistema de archivos montado en /global/a y otro montado en /global/a/b . Si se omite esta regla, puede que se produzcan problemas de disponibilidad y de orden de inicio del nodo. Estos problemas pueden producirse si el punto de montaje principal no est presente cuando el sistema intente montar un elemento secundario de ese sistema de archivos. La nica excepcin a esta regla, para los sistemas de archivos del clster en UFS o VxFS, es que los dispositivos de los dos sistemas de archivos presenten la misma conectividad fsica con el host, como, por ejemplo, en los diferentes segmentos del mismo disco.
Nota Esta restriccin se aplica tambin a los sistemas de archivos QFS compartidos,

aunque los dos dispositivos del sistema de archivos tengan la misma conectividad fsica con el host.

forcedirectio : el software Oracle Solaris Cluster no admite la ejecucin de archivos binarios fuera de los sistemas de archivos del clster montados mediante la opcin forcedirectio .

Planificacin de la administracin de volmenes


Agregue esta informacin de planificacin a la Hoja de trabajo para la configuracin de grupos de dispositivos en la pgina 277 y la Hoja de trabajo para la configuracin del administrador de volmenes en la pgina 279. Para Solaris Volume Manager, agregue tambin esta informacin de planificacin a la Hoja de trabajo de volmenes (Solaris Volume Manager) en la pgina 281. En esta seccin se proporcionan las siguientes directrices para planificar la administracin de volmenes de la configuracin del clster:

Directrices para el software del administrador de volmenes en la pgina 54 Directrices para el software Solaris Volume Manager en la pgina 55 Directrices para el software Veritas Volume Manager en la pgina 56 Registro de los sistemas de archivos en la pgina 57 Directrices de creacin de reflejos en la pgina 58

Oracle Solaris Cluster utiliza el software del administrador de volmenes para asociar discos a grupos de dispositivos que pueden administrarse posteriormente como una sola unidad. Oracle Solaris Cluster admite el software Solaris Volume Manager y el software Veritas

Volume Manager (VxVM) que instale o utilice de las siguientes formas. volmenes

Planificacinde la administracinde

Planificacinde la administracinde volmenes


TA B L A14

Uso admitido de los administradores de volmenes con el software OracleSolaris Cluster


Requisitos

Software del administrador de volmenes

Solaris Volume Manager

Debe instalar el software Solaris Volume Manager en los nodos de votacin de clster, independientemente de si utiliza VxVM en algunos nodos para administrar los discos. Debe instalar y registrar VxVM con la funcin de clster en todos los nodos de votacin de clster. Slo tiene que instalar y registrar VxVM en los nodos de votacin que estn conectados a los dispositivos de almacenamiento que administre VxVM. Si instala los dos administradores de volmenes en el mismo nodo de votacin, debe utilizar el software Solaris Volume Manager para administrar los discos que sean locales en cada nodo. Entre los discos locales, se incluye el disco raz. Utilice VxVM para administrar los discos compartidos.

SPARC: VxVM con la funcin de clster VxVM sin la funcin de clster

Solaris Volume Manager y VxVM

Consulte la documentacin del administrador de volmenes y la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 para obtener instrucciones sobre cmo instalar y configurar el software del administrador de volmenes. Para obtener ms informacin sobre cmo utilizar la administracin de volmenes en una configuracin de clster, consulte Multihost Devices de Oracle Solaris Cluster Concepts Guide y Device Groups de Oracle Solaris Cluster Concepts Guide.

Directrices para el software del administrador de volmenes


Tenga en cuenta las siguientes directrices generales al configurar los discos con el software del administrador de volmenes:

RAID de software: el software Oracle Solaris Cluster no admite el sistema RAID 5 de software. Discos multihost reflejados: debe crear reflejos de todos los discos multihost en las unidades de expansin de discos. Consulte la seccin Directrices para la creacin de reflejos de discos multihost en la pgina 58 para obtener directrices sobre cmo crear reflejos de discos multihost. No es necesario que utilice el reflejo del software si el dispositivo de almacenamiento proporciona RAID de hardware, as como rutas redundantes a los dispositivos. Raz reflejada : el reflejo del disco raz garantiza una alta disponibilidad, aunque no es necesaria. Consulte la seccin Directrices de creacin de reflejos en la pgina 58

para obtener directrices sobre si deben crear reflejos del disco raz. volmenes

Planificacinde la administracinde

Planificacinde la administracinde volmenes

Asignacin de nombre exclusivo: es posible que tenga volmenes locales de Solaris Volume Manager o VxVM que se utilicen como dispositivos en los que se montan los sistemas de archivos /global/.devices/node@ id_nodo . En tal caso, el nombre de cada volumen local en el que se vaya a montar un sistema de archivos /global/.devices/node@ id_nodo debe ser exclusivo en todo el clster. Listas de nodos: para garantizar la alta disponibilidad de un grupo de dispositivos, consiga que las listas de nodos de posibles maestros y su directiva de migracin tras error sean idnticas a cualquier grupo de recursos asociado. O bien, si un grupo de recursos escalable utiliza ms nodos que su grupo de dispositivos asociado, convierta la lista de nodos del grupo de recursos escalables en un superconjunto de la lista de nodos del grupo de dispositivos. Consulte la informacin de planificacin de grupos de recursos de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide para obtener informacin sobre las listas de nodos. Discos multihost : debe conectar (o asociar mediante los puertos) todos los dispositivos que se utilicen para crear un grupo de dispositivos a todos los nodos configurados de la lista de nodos para ese grupo de dispositivos. El software Solaris Volume Manager puede buscar esta conexin en el momento en que los dispositivos se agreguen al conjunto de discos. Sin embargo, los grupos de discos configurados de VxVM no presentan ninguna asociacin a ningn conjunto especfico de nodos. Discos reemplazables sobre la marcha: puede utilizar este tipo de discos para aumentar la disponibilidad, aunque su uso no es necesario.

Consulte la documentacin del administrador de volmenes para obtener recomendaciones acerca del diseo de disco y restricciones adicionales.

Directrices para el software Solaris Volume Manager


Tenga en cuenta los siguientes puntos al planificar las configuraciones de Solaris Volume Manager:

Nombres de volmenes locales: el nombre de cada volumen local de Solaris Volume Manager en el que se monta un sistema de archivos de dispositivos globales, /global/.devices/node@ id_nodo, debe ser exclusivo en todo el clster. Adems, este nombre no puede ser igual a ningn nombre de ID de dispositivo. Mediadores de dos cadenas: una cadena de disco est formada por un contenedor de discos, sus discos fsicos, cables del contenedor al host o hosts y las tarjetas del adaptador de interfaz. Cada conjunto de discos configurado con exactamente dos cadenas de discos y controlado exactamente por dos hosts de Solaris se denomina conjunto de discos de dos cadenas. Un conjunto de discos de este tipo debe tener configurados mediadores de dos cadenas de Solaris Volume Manager. Tenga en cuenta las siguientes reglas al configurar mediadores de dos cadenas:

Debe configurar cada conjunto de discos con dos o volmenes tres hosts que acten como mediadores.

Planificacinde la administracinde

Planificacinde la administracinde volmenes

Debe utilizar los hosts que puedan controlar un conjunto de discos como mediadores de ese conjunto de discos. Si dispone de un clster de campus, tambin puede configurar un tercer nodo o un host que no est en clster en la red de clsteres como tercer host mediador para mejorar la disponibilidad. No se pueden configurar mediadores para los conjuntos de discos que no cumplan los requisitos de dos cadenas y dos hosts.

Consulte la pgina de comando man mediator(7D) para obtener ms informacin.

Directrices para el software Veritas Volume Manager


Tenga en cuenta los siguientes puntos al planificar las configuraciones de Veritas Volume Manager (VxVM).

Accesibilidad a los nodos: debe configurar todos los grupos de discos del administrador de volmenes como grupos de dispositivos de Oracle Solaris Cluster o grupos de discos slo locales. Si no configura el grupo de discos de ninguna de estas formas, no se podr acceder a los dispositivos del grupo de discos en ningn nodo del clster.

Si el nodo primario presenta errores, el grupo de dispositivos habilita un nodo secundario para que aloje los discos multihost. El grupo de discos slo locales funciona fuera del control del software Oracle Solaris Cluster y slo se puede acceder a l desde un nico nodo cada vez.

Asignacin de nombre basada en contenedor: si utiliza la funcin de asignacin de nombre basada en contenedor de los dispositivos, asegrese de utilizar nombres de dispositivos coherentes en todos los nodos del clster que compartan el mismo almacenamiento. VxVM no coordina estos nombres, por lo que el administrador debe garantizar que VxVM asigne los mismos nombres a los mismos dispositivos de diferentes nodos. Aunque no se asignen nombres coherentes, el clster seguir presentando un comportamiento correcto. No obstante, los nombres incoherentes complican en gran medida la administracin del clster y aumentan enormemente la posibilidad de que se produzcan errores de configuracin, que podran provocar la prdida de datos. Grupo de discos raz: la creacin de un grupo de discos raz es opcional. Se puede crear un grupo de discos raz en los siguientes discos:

El disco raz, que debe encapsularse. Uno o varios discos que no sean raz, que puede encapsular o inicializar. Una combinacin de discos raz y discos que no lo sean.

El grupo de discos raz debe ser local en el host de Solaris.

Grupos de discos raz sencillos: los grupos de discos raz sencillos, que se crean en un nico segmento del disco raz, no se admiten como tipos de disco con VxVM en el software Oracle Solaris Cluster. Se trata de una restriccin general del software VxVM.

Planificacinde la administracinde volmenes

Encapsulacin : los discos que se van a encapsular deben tener dos entradas de la tabla de segmentos del disco libres. Nmero de volmenes: calcule el nmero mximo de volmenes que puede utilizar un determinado grupo de dispositivos durante su creacin.

Si el nmero de volmenes es inferior a 1000, puede utilizar la asignacin de nmeros menores predeterminada. Si el nmero de volmenes es 1000 o superior, debe planificar con cuidado la forma en la que los nmeros menores se asignan a los volmenes del grupo de dispositivos. No puede haber dos grupos de dispositivos con asignaciones de nmeros menores que se solapen.

Registro de reas modificadas : el uso del Registro de reas modificadas (DRL) reduce el tiempo de recuperacin de los volmenes tras un error del nodo. El uso de DRL puede reducir el rendimiento de E/S. Multirruta dinmica (DMP): no se admite el uso exclusivo de DMP para administrar varias rutas de E/S por host de Solaris al almacenamiento compartido. Slo se admite el uso de DMP en las siguientes configuraciones:

S e ha configurado una nica ruta de E/S por host en el almacenamiento compartido del clster. S e utiliza una solucin de multirruta dinmica, por ejemplo el software Multirruta de E/S de Solaris o EMC PowerPath, que administre varias rutas de E/S por host al almacenamiento compartido.

ZFS: la encapsulacin del disco raz es incompatible con el sistema de archivos raz

ZFS. Consulte la documentacin de instalacin de VxVM para obtener ms informacin.

Registro de los sistemas de archivos


El registro es necesario para los sistemas de archivos UFS y VxFS del clster. El software Oracle Solaris Cluster admite las siguientes opciones de registro de sistemas de archivos:

Solaris UFS logging: consulte la pgina de comando man mount_ufs(1M) para obtener ms informacin. SPARC: Registro de Sistema de archivos de Veritas (VxFS): consulte la pgina de comando man mount_vxfs incluida en el software VxFS para obtener ms informacin.

Tanto Solaris Volume Manager como Veritas Volume Manager admiten los dos tipos de registro de sistemas de archivos.

Planificacinde la administracinde volmenes

Directrices de creacin de reflejos


En esta seccin se proporcionan las siguientes directrices para planificar la creacin de reflejos de la configuracin del clster:

Directrices para la creacin de reflejos de discos multihost en la pgina 58 Directrices para la creacin de reflejos del disco raz en la pgina 58

Directrices para la creacin de reflejos de discos multihost


La creacin de reflejos de todos los discos multihost en una configuracin de Oracle Solaris Cluster permite que sta tolere los errores de un nico dispositivo. Es necesario crear reflejos de todos los discos multihost en todas las unidades de expansin para el software Oracle Solaris Cluster. No es necesario que utilice el relfejo del software si el dispositivo de almacenamiento proporciona RAID de hardware, as como rutas redundantes a los dispositivos. Tenga en cuenta los siguientes puntos al crear reflejos de discos multihost:

Unidades de expansin de discos independientes: cada subreflejo de un determinado reflejo o transmisin bidireccional debe residir en una unidad de expansin multihost diferente. Espacio en el disco: el reflejo dobla la cantidad necesaria de espacio en el disco. Reflejos en tres direcciones: el software Solaris Volume Manager y Veritas Volume Manager (VxVM) admiten la creacin de reflejos en tres direcciones. Sin embargo, Oracle Solaris Cluster slo requiere reflejos bidireccionales. Diferencia en el tamao de los dispositivos: si crea reflejos de un dispositivo con un tamao diferente, la capacidad de creacin de reflejos se limita al tamao del subreflejo o transmisin bidireccional menor.

Para obtener ms informacin sobre los discos multihost, consulte Multihost Disk Storage de Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.

Directrices para la creacin de reflejos del disco raz


Agregue esta informacin de planificacin a la Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273. Para obtener la mxima disponibilidad, cree reflejos de (/), /usr , /var , /opt y swap en los discos raz. En VxVM, debe encapsular el disco raz y crear reflejos de los subdiscos generados. Sin embargo, no es necesario crear reflejos del disco raz para el software Oracle Solaris Cluster. Antes de decidir si desea crear reflejos del disco raz, tenga en cuenta los riesgos, la complejidad, los costes y el tiempo de mantenimiento de las diversas alternativas relacionadas con el disco raz. No hay ninguna estrategia de creacin de reflejos que funcione en todas las configuraciones. Es posible que desee considerar la implementacin de la solucin preferida

de su representante de servicio local de Oracle al decidir si deseavolmenes crear reflejos del disco.

Planificacinde la administracinde

Planificacinde la administracinde volmenes

Consulte la documentacin del administrador de volmenes y la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 para obtener instrucciones sobre cmo crear reflejos del disco raz. Tenga en cuenta los siguientes puntos al decidir si desea crear reflejos del disco raz.

Disco de inicio : puede configurar el reflejo para que sea un disco raz de inicio. A continuacin, puede efectuar el inicio desde el disco raz cuando el disco raz principal presente errores. Complejidad : la creacin de reflejos del disco raz aade complejidad a la administracin del sistema. Tambin complica el inicio en el modo monousuario. Copias de seguridad: independientemente de si se crean reflejos del disco raz, tambin debe efectuar copias de seguridad de la raz con frecuencia. La creacin de reflejos no basta para protegerle de los errores de administracin. Slo un plan de copia de seguridad permite restaurar los archivos que se hayan modificado o eliminado accidentalmente. Dispositivos del qurum: no utilice un disco que se haya configurado como dispositivo del qurum para crear reflejos de un disco raz. Qurum: en el software Solaris Volume Manager, en situaciones de error donde se pierde el qurum de la base de datos de estado, no se puede reiniciar el sistema hasta que se realice el mantenimiento. Consulte la documentacin de Solaris Volume Manager para obtener informacin sobre la base de datos de estado y sus rplicas. Controladores independientes: para obtener alta disponibilidad,esnecesariocrearreflejos del disco raz en un controlador independiente. Disco raz secundario: con un disco raz reflejado, es posible que el disco raz principal presente errores, aunque puede seguir funcionando en el disco raz secundario (reflejo). Es posible que el disco raz principal vuelva a funcionar posteriormente, por ejemplo, despus de apagar y encender el sistema o una vez solucionados los errores de E/S temporales. Los siguientes inicios se realizarn mediante el disco raz principal especificado en el parmetro eeprom(1M) boot-device . En este caso, no es necesario realizar ninguna tarea de reparacin manual, ya que la unidad contar con los recursos suficientes para iniciarse correctamente. Con el software Solaris Volume Manager, no se produce ninguna resincronizacin. sta necesita de un paso adicional cuando la unidad vuelva a estar en funcionamiento. Si se han realizado cambios en los archivos del disco raz secundario (reflejo), estos no aparecern reflejados en el disco raz principal durante el inicio. Esta situacin puede dar lugar a un subreflejo obsoleto. Por ejemplo, los cambios realizados en el archivo /etc/system se perderan. Con el software Solaris Volume Manager, es posible que algunos comandos de administracin hayan modificado el archivo/etc/system cuando el disco raz principal se encontraba fuera de servicio. El programa de inicio no comprueba si el sistema se est iniciando desde un reflejo o desde el dispositivo fsico subyacente. El reflejo se encuentra activo parcialmente durante el proceso de inicio una vez cargados los volmenes. Por lo tanto, antes de este punto, el sistema es vulnerable a los problemas asociados a los subreflejos obsoletos.

60

Instalacin del software en los nodos del clster global

A P T U L O

En este captulo se proporcionan los procedimientos para instalar el software en los nodos de votacin de clster global y, de forma opcional, en la consola de administracin. En este captulo se describen los siguientes procedimientos:

Instalacin del software en la pgina 61

Instalacin del software


En esta seccin, se proporciona la informacin y los procedimientos para instalar el software en los nodos del clster. El siguiente mapa muestra las tareas que se deben realizar para instalar el software en clsteres globales de uno o varios hosts. Realice los procedimientos en el orden indicado.
TA B L A 21 Tarea

Mapa de tareas: instalacin del software


Instrucciones

Planifique el diseo de configuracin del clster y prepare la instalacin del software. (Opcional) Instale y configure un servidor de qurum. (Opcional) Instale el software Cluster Control Panel (CCP) en la consola de administracin. Instale el SO Solaris en todos los nodos. Si lo desea, habilite la ruta mltiple de E/S de Solaris.

Cmo preparar la instalacin del software del clster en la pgina 62 Instalacin y configuracin del software Servidor de qurum en la pgina 64 Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67 Cmo instalar el software de Solaris en la pgina 70

61

(Opcional) Configure la creacin de reflejos de discos internos.

Cmo configurar la creacin de reflejos de discos internos en la pgina 75

62

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Instalacin del software

TA B L A 21 Tarea

Mapa de tareas: instalacin del software

(Continuacin)
Instrucciones

(Opcional) Instale el software Sun Logical Domains (LDoms) y cree dominios. (Opcional) SPARC: Instale el software Sistema de archivos de Veritas. Instale el software Oracle Solaris Cluster y todos los servidos de datos que se utilizarn. (Opcional) Instale el software Sun QFS. Configure las rutas de directorio. (Opcional) Configure el filtro IP de Solaris.

SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76 Cmo instalar el software Sistema de archivos de Veritas en la pgina 77 Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78 Cmo instalar el software Sun QFS en la pgina 82 Cmo configurar el entorno de usuario root en la pgina 82 Cmo configurar el filtro IP de Solaris en la pgina 83

Cmo preparar la instalacin del software del clster


Antes de instalar el software, lleve a cabo las siguientes tareas de preparacin. Asegrese de que la combinacin de hardware y software seleccionada para el clster sea compatible actualmente con una configuracin de Oracle Solaris Cluster. Pngase en contacto con el representante de ventas local de Oracle para obtener la informacin ms reciente acerca de las configuraciones de clster compatibles. Lea los siguientes manuales para obtener informacin que le ayude a planificar la configuracin del clster y a preparar la estrategia de instalacin.

Notas de la versin de Sun Cluster: restricciones, soluciones de errores e informacin de ltima hora. Oracle SolarisCluster Overview y Oracle SolarisCluster ConceptsGuide : informacin general sobre Oracle Solaris Cluster. Gua de instalacin del software Oracle Solaris Cluster (este manual): procedimientos y directrices de planificacin para la instalacin y configuracin de Solaris, Oracle Solaris Cluster y el software de administracin de volmenes. Oracle Solaris Cluster Data ServicesPlanning and Administration Guide : procedimientos y directrices de planificacin para la instalacin y configuracin de los servicios de datos.

Asegrese de disponer de toda la documentacin relacionada, incluidos los documentos de terceros. A continuacin se muestra una lista parcial de los productos cuya documentacin es posible que necesite consultar durante la instalacin del clster:

SO Solaris
63

Instalacin del software

Software Solaris Volume Manager Software Sun QFS Veritas Volume Manager Aplicaciones de terceros

Planifique la configuracin del clster.


Caution Planifique en su totalidad la configuracin del clster. Identifique los requisitos de

todos los servicios de datos y los productos de terceros antes de iniciar la instalacin del software de Solaris y Oracle Solaris Cluster. De lo contrario, es posible que se produzcan errores de instalacin que le obliguen a reinstalar por completo el software de Solaris y Oracle Solaris Cluster. Por ejemplo, la opcin Proteccin de clsteres de aplicacin real de Oracle de Oracle Real Application Clusters presenta requisitos especiales relacionados con los nombres de host utilizados en el clster. Otro ejemplo con requisitos especiales es Oracle Solaris Cluster HA para SAP. Debe tener en cuenta estos requisitos antes de instalar el software Oracle Solaris Cluster, ya que no se pueden cambiar los nombres de host una vez realizada la instalacin.

Utilice las directrices de planificacin del Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster, y de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide para determinar cmo instalar y configurar el clster. Rellene las hojas de trabajo de configuracin de la estructura del software y los servicios de datos a los que se alude en estas directrices de planificacin. Durante las tareas de instalacin y configuracin, utilice como referencia las hojas de trabajo que ha rellenado.

Obtenga todos los parches necesarios para la configuracin del clster. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

Pasos siguientes

Si desea utilizar el software Cluster Control Panel para establecer una conexin de la consola de administracin a los nodos del clster, vaya a Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67. De lo contrario, seleccione el procedimiento de instalacin de Solaris que desee utilizar.

Para configurar el software Oracle Solaris Cluster mediante la utilidad scinstall (1M), vaya a Cmo instalar el software de Solaris en la pgina 70 para instalar primero el software de Solaris. Para instalar y configurar el software de Solaris y Oracle Solaris Cluster en la misma operacin (mtodo JumpStart), vaya a Cmo instalar el software de Solaris y Oracle
63

Captulo 2 Instalacin del software en los nodos del clster global

Instalacin del software

Solaris Cluster (JumpStart) en la pgina 107.

64

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Instalacin y configuracin del software Servidor de qurum


Realice este procedimiento para configurar un servidor de host como servidor de qurum.

Antes de empezar

Realice las siguientes tareas:

Asegrese de que el equipo seleccionado para el servidor de qurum tenga, como mnimo, 1 MB de espacio disponible en el disco para la instalacin del software Oracle Java Web Console. Asegrese de que el equipo del servidor de qurum est conectado a una red pblica accesible a los nodos del clster. Inhabilite el algoritmo de rbol de expansin en los conmutadores Ethernet para los puertos conectados a la red pblica del clster en los que se ejecutar el servidor de qurum.

1 2

Convirtase en superusuario en el equipo para instalar el software del Servidor de qurum. (Opcional) Para usar el programa installer con una G U I,asegrese de que el

entorno de visualizacin del servidor de host que se va a instalar se haya configurado para mostrar la GUI.
# xhost + # setenv D IS P L A Y nodenam :0.0 e

Inserte el medio de instalacin en la unidad.


4

Si el daemon de administracin de volmenes (vold(1M)) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. Acceda al directorio del asistente de instalacin del medio.

Si va a instalar los paquetes de software en la plataforma SPARC, escriba el siguiente comando:


phys-schost# cd /cdrom/cdrom0Solaris_sparc

Si va a instalar los paquetes de software en la plataforma x86, escriba el siguiente comando:


phys-schost# cd /cdrom/cdrom0Solaris_x86

Inicie el asistente de instalacin.


phys-schost# ./installer

Siga las instrucciones que aparecen en la pantalla para instalar el software del Servidor

de qurum en el servidor de host. Seleccione la opcin Configurar ms tarde.

Nota Si el programa de instalacin no permite seleccionar la opcin Configurar ms tarde, elija

Configurar ahora. Una vez finalizada la instalacin, puede consultar el registro de instalacin disponible. Consulte Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para obtener informacin adicional sobre cmo utilizar el programa installer .
7 8

Aplique los parches de Servidor de qurum que sean necesarios. Extraiga el medio de instalacin de la unidad. a. Para asegurarse de que no se est utilizando el medio de instalacin, acceda a un directorio que no est incluido en dicho medio. b. Expulse el medio.
phys-schost# eject cdrom

Aplique los parches necesarios para admitir el uso del software del Servidor de qurum. Consulte Parches y niveles de firmware necesarios de las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. (Opcional) Agreguelaubicacindela rchivobinariodel Servidor de qurum a la variable de entorno P A T .H
quorumserver# PATH=$PATH:/usr/cluster/bin

10

11

(Opcional) Agregue la ubicacin de la pgina de comando man del Servidor de qurum a la variable de entorno M A N P A. T H
quorumserver# MANPATH=$MANPATH:/usr/cluster/man

12

Configure el servidor de qurum. Agregue la siguiente entrada al archivo /etc/scqsd/scqsd.conf para especificar la informacin de configuracin acerca del servidor de qurum. Identifique el servidor de qurum mediante, al menos, un nombre de instancia o un nmero de puerto. Debe especificar el nmero de puerto, aunque el nombre de la instancia es opcional.

Si proporciona un nombre de instancia, ste debe ser exclusivo para los servidores del qurum. S i, por el contrario, no proporciona ningn nombre de instancia, haga referencia siempre a este servidor de qurum mediante el puerto de escucha.
[-d quorumdirectory] [-i instancename] -p port

/usr/cluster/lib/sc/scqsd

-d directorio_qurum La ruta al directorio en el que el servidor de qurum puede almacenar los datos del qurum.

El proceso del servidor de qurum crea un archivo por clster en este directorio para almacenar la informacin del qurum especfica del clster. El valor de esta opcin es, de forma predeterminada, /var/scqsd . Este directorio debe ser exclusivo para cada servidor de qurum que configure. -i nombre_instancia El nombre exclusivo que seleccione para la instancia del servidor de qurum. -p puerto El nmero de puerto en el que el servidor de qurum recibe las solicitudes del clster.
13

(Opcional) Para atender a ms de un clster utilizando un nmero de puerto o instancia diferente, configure una entrada adicional para cada instancia adicional del servidor de qurum que necesite. Guarde y cierre el archivo /etc/scqsd/scqsd.conf Inicie el servidor de qurum configurado recientemente.
quorumserver# /usr/cluster/bin/clquorumserver start quorumserver

14 15

servidor_qurum Identifica el servidor de qurum. Puede utilizar el nmero del puerto de escucha del servidor de qurum. Si ha especificado un nombre de instancia en el archivo de configuracin, puede utilizar este nombre en su lugar.

Para iniciar un nico servidor de qurum, especifique el nombre de la instancia o el nmero de puerto. Para iniciar todos los servidores del qurum si se han configurado varios, utilice el operando +.

Errores ms frecuentes

El programa de instalacin realiza una instalacin sencilla mediante pkgadd de los paquetes de Servidor de qurum y configura los directorios necesarios. El programa consta de los siguientes paquetes:

SUNWscqsr SU N W scqsu S U N W scqsm an

Al instalar estos paquetes, se agrega el software a los directorios /usr/cluster y /etc/scqsd . No se puede modificar la ubicacin del software Servidor de qurum. Si aparece un mensaje de error de la instalacin relacionado con el software Servidor de qurum, compruebe que los paquetes se hayan instalado correctamente.

Pasos siguientes

Si desea utilizar una consola de administracin para comunicarse con los nodos del clster, vaya a Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67. De lo contrario, vaya a Cmo instalar el software de Solaris en la pgina 70.

Cmo instalar el software Cluster Control Panel en una consola de administracin


Nota No es necesario que utilice una consola de administracin. Si no utiliza una consola

de administracin, realice las tareas administrativas desde un nodo especfico del clster. No se puede utilizar este software para conectarse a los dominios invitados de Sun Logical Domains (LDoms). En este procedimiento, se describe cmo instalar el software Cluster Control Panel (CCP) en una consola de administracin. CCP proporciona una interfaz nica desde la que se pueden iniciar las herramientas cconsole, cssh, ctelnet y crlogin . Cada una de estas herramientas proporciona una conexin de varias ventanas a un conjunto de nodos, as como una ventana comn. Puede utilizar la ventana comn para enviar simultneamente la entrada a todos los nodos. Para obtener ms informacin, consulte la pgina de comando man ccp(1M). Puede utilizar cualquier equipo de escritorio que ejecute una versin del SO Solaris compatible con el software Oracle Solaris Cluster 3.3 como consola de administracin. Si utiliza el software Oracle Solaris Cluster en un sistema basado en SPARC, puede usar tambin la consola de administracin como servidor o consola de Sun Management Center . Consulte la documentacin de Sun Management Center para obtener informacin sobre cmo instalar el software Sun Management Center .
Antes de empezar

Asegrese de que una versin compatible del SO Solaris y los parches de Solaris se encuentren instalados en la consola de administracin. En todas las plataformas, se necesita, al menos, un grupo de software de Solaris de usuario final. Convirtase en superusuario en la consola de administracin. Inserte el D VD-R O Men la unidad de D VDR OM .

1 2

Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamen te el medio en el directorio /cdrom/cdrom0 .

Cambie a Directorio Solaris_ arch /Producto/sun_cluster/Solaris_ vers /Packages/ , donde arch es sparc o x86, y donde ver es 10 para Solaris 10 .
adminconsole# cd /cdrom/cdrom0/Solaris_ arch/Producto/sun_cluster/Solaris_ vers/Packages/

Instale el paquete S U N W cco .n


adminconsole# pkgadd -d . S U N W c c o n

(Opcional) Instale los paquetes de pginas de comando man de Oracle Solaris Cluster.
adminconsole# pkgadd -d . pkgname . . .
Nombre del paquete Descripcin

SUNWscman SUNWscdsman SUNWscqsman

Pginas de comando man de la estructura de Oracle Solaris Cluster Pginas de comando man de los servicios de datos de Oracle Solaris Cluster Pginas de comando man de Servidor de qurum

Al instalar los paquetes de pginas de comando man de Oracle Solaris Cluster en la consola de administracin, podr verlos desde esta consola antes de instalar el software Oracle Solaris Cluster en los nodos del clster o el servidor de qurum.
6

Extraiga el D VD-R O Mde la unidad de D VD-R O M . a. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. b. Expulse el D VD-R O M .
adminconsole# eject cdrom

Cree un archivo /etc/clusters


adminconsole# vi /etc/clusters clustername node1 node2

en la consola de administracin.

Agregue el nombre del clster y el nombre del nodo fsico de cada nodo del clster al archivo.

Consulte la pgina de comando man /opt/SUNWcluster/bin/ clusters(4) para obtener ms informacin.


8

Cree el archivo /etc/serialports

Agregue una entrada de cada nodo del clster al archivo. Especifiqueel nombre fsico del nodo, el nombre de host del dispositivo de acceso a la consola y el nmero de puerto. Entre los

ejemplos de dispositivo de acceso a la consola se encuentran los concentradores de terminales (TC), un Procesador de servicio del sistema (SSP) y un controlador del sistema de Sun Fire.
adminconsole# vi /etc/serialports node1 ca-dev-hostname port node2 ca-dev-hostname port

nodo1, nodo2 Nombres fsicos de los nodos del clster. nombre_host_dispositivo_ca Nombre de host del dispositivo de acceso a la consola. puerto El nmero de puerto serie o el nmero de puerto de Secure Shell para las conexiones Secure Shell. Tenga en cuenta estas instrucciones especiales al crear el archivo /etc/serialports

Si utiliza un controlador del sistema de Sun Fire 15000, use el nmero de puerto 23 de telnet(1) como nmero de puerto serie de cada entrada. En todos los dems dispositivos de acceso a la consola, para conectarse a la consola mediante una conexin telnet , utilice el nmero de puerto serie de telnet y no el nmero de puerto fsico. Para determinar el nmero de puerto serie de telnet, sume 5000 al nmero de puerto fsico. Por ejemplo, si el nmero de puerto fsico es 6, el nmero de puerto serie de telnet es 5006. Si utiliza servidores de Sun Enterprise 10000, consulte tambin la pgina de comando man /opt/SUNWcluster/bin/ serialports(4) para obtener informacin e instrucciones especiales. En las conexiones Secure Shell a las consolas de nodos, especifique para cada nodo el nombre del dispositivo de acceso a la consola y el nmero de puerto que se utilizarn para la conexin segura. El nmero de puerto predeterminado para Secure Shell es 22. Para conectar directamente la consola de administracin a los nodos del clster o mediante una red de administracin, especifique para cada nodo el nombre de host y el nmero de puerto que utiliza el nodo para conectarse a la consola o la red de administracin.

(Opcional) Para facilitar el proceso, establezca las rutas de directorio en la consola de administracin. a. Agregue el directorio /opt/SUNWcluster/bin/ a P A T .H b. Agregue el directorio /opt/SUNWcluster/man/ a M A N P A. T H c. Si ha instalado el paquete S U N W sc m, a agregue n tambin el directorio /usr/cluster/man/ a

M A N P A. T H

10

Inicie la utilidad CCP.


adminconsole# /opt/SUNWcluster/bin/ccp &

En la ventana de CCP, haga clic en el botn cconsole, cssh, crlogin o ctelnet para iniciar la herramienta en cuestin. Tambin puede iniciar directamente cualquiera de estas herramientas. Por ejemplo, para iniciar ctelnet , escriba el siguiente comando:
adminconsole# /opt/SUNWcluster/bin/ctelnet &

El software CCP admite las siguientes conexiones Secure Shell:

Para establecer una conexin segura con las consolas de nodos, inicie la herramienta cconsole. A continuacin, en el men "Options" (Opciones) de la ventana de la consola del clster, habilite la casilla "Use SSH" (Usar SSH). Para establecer una conexin segura con los nodos del clster, utilice la herramienta cssh .

Consulte el procedimiento sobre cmo iniciar una sesin de forma remota en Oracle Solaris Cluster de Inicio de sesin remota en el clster de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin sobre el uso de la utilidad CCP. Consulte tambin la pgina de comando man ccp (1M).
Pasos siguientes

Determine si el SO Solaris ya se encuentra instalado para satisfacer los requisitos del software Oracle Solaris Cluster. Consulte Planificacin del sistema operativo Oracle Solaris en la pgina 16 para obtener informacin sobre los requisitos de instalacin de Oracle Solaris Cluster para el sistema operativo Solaris.

Si el sistema operativo Solaris cumple los requisitos de Oracle Solaris Cluster, vaya a Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Si, por el contrario, el SO Solaris no cumple los requisitos de Oracle Solaris Cluster, instale, vuelva a configurar o reinstale el sistema operativo si es necesario.

Para instalar nicamente el SO Solaris, vaya a Cmo instalar el software de Solaris en la pgina 70. Para utilizar el mtodo JumpStart personalizado scinstall para instalar el sistema operativo Solaris y el software Oracle Solaris Cluster, vaya aCmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.

Cmo instalar el software de Solaris


Si no utiliza el mtodo de instalacin JumpStart personalizadoscinstall , realice el siguiente procedimiento para instalar el SO Solaris en cada uno de los nodos del clster global. Consulte Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 para obtener ms informacin sobre el mtodo de instalacin JumpStart de un clster.

Consejo Para agilizar el proceso de instalacin, puede instalar simultneamente el SO Solaris

en cada nodo. Si ya se ha instalado el SO Solaris en los nodos, pero no se cumplen los requisitos del sistema de Oracle Solaris Cluster, es posible que deba volver a instalar el software de Solaris. Siga los pasos descritos en este procedimiento para garantizar la correcta instalacin posterior del software Oracle Solaris Cluster. Consulte Planificacin del sistema operativo Oracle Solaris en la pgina 16 para obtener informacin acerca de la particin del disco raz necesaria y de los dems requisitos de instalacin de Oracle Solaris Cluster.
Antes de empezar

Realice las siguientes tareas:

clster. Consulte la seccin Cmo preparar la instalacin del software del clster en la pgina 62 para obtener informacin sobre los requisitos y las directrices.

Asegrese de que se haya completado la configuraci n del hardware y de que se hayan comprobad o las conexiones antes de instalar el software de Solaris. Consulte la Coleccin de administrac in del hardware de Oracle Solaris Cluster y la documentac in del servidor y el dispositivo de almacenami ento para obtener informacin . Asegrese de que se haya completado la planificacin de configuraci n del

Rellene la Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273. Si utiliza un servicio de nombres, agregue las asignaciones de direccin y nombre de todas las direcciones lgicas y los nombres de host pblicos a los servicios de nombres que los clientes utilicen para acceder a los servicios de clster. Consulte la seccin Direcciones IP de red pblica en la pgina 27 para obtener directrices de planificacin. Consulte la documentacin del administrador de sistemas de Solaris para obtener informacin sobre el uso de servicios de nombres de Solaris.

Si utiliza una consola de administracin para el clster, abra una pantalla de la consola para cada nodo del clster.

S i el software Cluster Control Panel (CC P )se encuentra instalado y configurado en la consola de administracin, use la utilidad cconsole(1M) para que se muestren las pantallas individuales de la consola. Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

La utilidad cconsole abre, adems, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.

S i no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.

Instale el SO Solaris tal y como se indica en la documentacin de instalacin de Solaris.

Nota Debe instalar la misma versin del SO Solaris en todos los nodos de un clster.

Puede utilizar cualquier mtodo empleado normalmente para instalar el software de Solaris. Durante la instalacin del software de Solaris, realice los siguientes pasos: a. Instale, como mnimo, el grupo de software de Solaris de usuario final.
Consejo Para no tener que instalar manualmente los paquetes de software de Solaris,

instale el grupo de software de Solaris completo ms la compatibilidad con OEM. Consulte Consideraciones sobre los grupos de software de Solaris en la pgina 18 para obtener informacin sobre los requisitos adicionales del software de Solaris. b. Seleccione "Manual Layout " (Diseo manual) para configurar los sistemas de archivos.

Indique que el segmento 7 tiene un tamao de, al menos, 20 MB. (Opcional) Cree un sistema de archivos de, al menos, 512 M B para el subsistema de dispositivos globales.
Nota Tambin puede utilizar el dispositivo lofi en lugar de crear este sistema de

archivos dedicado. Al establecer el clster, puede especificarel uso de un dispositivo lofi en el comando scinstall .

Cree todas las particiones del sistema de archivos que considere necesarias, como se describe en Particiones de disco del sistema en la pgina 19.

c. Para facilitar la administracin, establezca la contrasea del usuario root en cada nodo.
3

Si utiliza el control de acceso basado en funciones (R BAC) en lugar del superusuario para acceder a los nodos del clster, configure una funcin de R BAC que proporcione autorizacin para todos los comandos de Oracle Solaris Cluster. Para realizar esta serie de procedimientos de instalacin, se necesitan las siguientes autorizaciones de RBAC de Oracle Solaris Cluster si no se utiliza la cuenta de superusuario:

solaris.cluster.modify solaris.cluster.admin solaris.cluster.read

Consulte la seccin Role-Based Access Control (Overview) de System Administration Guide: Security Servicespara obtener ms informacin sobre las funciones de RBAC. Consulte las pginas de comando man de Oracle Solaris Cluster para saber la autorizacin de RBAC que requiere cada subcomando de Oracle Solaris Cluster.

Si va a agregar un nodo a un clster existente, agregue puntos de montaje para los sistemas de archivos del clster al nuevo nodo. a. En el nodo del clster activo, muestre los nombres de todos los sistemas de archivos del clster.
phys-schost-1# m ount | grep global | egrep -v n od e@ | aw k {print $1}

b. En el nuevo nodo, cree un punto de montaje para cada sistema de archivos del clster.
phys-schost-new# mkdir -p mountpoint

Por ejemplo, si el comando de montaje devuelve el nombre del sistema de archivos /global/dg-schost-1 , ejecute mkdir -p /global/dg-schost-1 en el nuevo nodo que va a agregar al clster.
5

Si va a agregar un nodo y V xV Mse encuentra instalado en un nodo del clster, realice las siguientes tareas. a. Asegrese de que se utilice el mismo nmero de vxio en los nodos en los que se encuent ra instalado V xV M .
phys-schost# grep vxio /etc/name_to_major vxio NNN

b. Asegrese de que el nmero de vxio est disponible para su uso en cada uno de los nodos en los que no se haya instalado V xV M . c. Si el nmero de vxio ya se est utilizando en un nodo en el que no se ha instalado V xV M cambie , la entrada /etc/name_to_major para utilizar un nmero diferente.
6

Si ha instalado el grupo de software de Solaris de usuario final y desea utilizar cualquiera de las funciones siguientes de Oracle Solaris Cluster, para poder utilizar estas funciones instale otros paquetes de Solaris.
Funcin Paquetes de software de Solaris obligatorios

scsnapshot Oracle Solaris Cluster Manager

S U N W p 1 5SuU N W p 1 5SvU N W p 1 5 p SU N W apchr SU N W apchu

phys-schost# pkgadd -G -d . package . . .

Slo debe agregar estos paquetes a la zona global. La opcin -G permite agregar paquetes slo a la zona actual. Esta opcin permite indicar tambin que los paquetes no se propaguen a cualquier zona no global existente o que se cree posteriormente.

Instale los parches del SO Solaris necesarios, y el firmware y los parches relacionados con el hardware. Incluya estos parches para obtener compatibilidad con la matriz de almacenamiento. Descargue tambin el firmware necesario que se incluye en los parches de hardware. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

x86: Establezca el archivo de inicio predeterminado. La configuracin de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesin.
grub edit> kernel /platform/i86pc/multiboot km db

Actualice el archivo /etc/inet/hosts el clster.

en cada nodo con las direcciones IP utilizadas en

Realice este paso independientemente de si est utilizando un servicio de nombres.


Nota Durante el establecimiento de un nuevo clster o nodo del clster, la utilidad

scinstall agrega automticamente la direccin IP pblica de los nodos que se estn configurando al archivo /etc/inet/hosts .
10

(Opcional) En los servidores Sun Enterprise 10000, configure el archivo /etc/system para utilizar la reconfiguracin dinmica. Agregue la siguiente entrada al archivo etc/system en cada uno de los nodos del clster:
set kernel_cage_enable=1

Esta entrada se aplicar una vez reiniciado el sistema. Consulte la documentacin del servidor para obtener ms informacin sobre la reconfiguracin dinmica.
11

(Opcional) Configure los adaptadores de red pblica en los grupos de IPMP. Si no desea utilizar los grupos IPMP con varios adaptadores que la utilidad scinstall configura durante la creacin del clster, configure los grupos de IPMP personalizados del mismo modo que en un sistema independiente. Consulte Captulo 31, Administracin de IPMP (tareas) de Gua de administracin del sistema:serviciosIP para obtener ms informacin. Durante la creacin del clster, la utilidad scinstall configura cada conjunto de adaptadores de red pblica que utilizan la misma subred y que an no se han configurado en un grupo de IPMP para incluirlos en un grupo de IPMP con varios adaptadores. La utilidad scinstall omite todos los grupos de IPMP existentes.

12

Para poder utilizar la ruta mltiple de E/S de Solaris, debe habilitar la ruta mltiple en cada nodo.

Precaucin Si el software Oracle Solaris Cluster ya se ha instalado, no emita este comando. Si

se ejecuta el comando stmsboot en un nodo del clster activo, es posible que los servicios de Solaris cambien al estado de mantenimiento. En su lugar, siga las instrucciones de la pgina de comando man stmsboot(1M) para utilizar el comando stmsboot en un entorno de Oracle Solaris Cluster.
phys-schost# /usr/sbin/stmsboot -e

-e Habilita la multirruta de E/S de Solaris. Consulte la pgina de comando man stmsboot(1M) para obtener ms informacin.
Pasos siguientes

Si su servidor no admite la creacin de reflejos de unidades de disco duro internas y debe configurar esta funcin, vaya a Cmo configurar la creacin de reflejos de discos internos en la pgina 75. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.

Vase tambin

Consulte Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de reconfiguracin dinmica en una configuracin de Oracle Solaris Cluster.

Cmo configurar la creacin de reflejos de discos internos


Realice este procedimiento en cada nodo del clster global para configurar la creacin de reflejos de discos RAID de hardware para crear reflejos del disco del sistema. Este procedimiento es opcional.

Nota No realice este procedimiento en ninguna de las siguientes circunstancias:


Los servidores no admiten la creacin de reflejos de unidades de disco duro internas. Ya se ha establecido el clster. En su lugar, realice el procedimiento Mirroring Internal Disks on Servers that Use Internal Hardware Disk Mirroring or Integrated Mirroring de Oracle Solaris Cluster 3.3 Hardware Administration Manual.

Antes de empezar 1 2

Asegrese de que se hayan instalado el sistema operativo Solaris y todos los parches necesarios. Convirtase en superusuario. Configure un reflejo interno.
phys-schost# raidctl -c clt0d0 clt1d0

-c clt0d0 clt1d0 Cree el reflejo del disco principal en el disco de reflejo. Especifiqueel nombre del disco principal como primer argumento. Especifiqueel nombre del disco de reflejo como segundo argumento. Para obtener detalles sobre cmo configurar la creacin de reflejos de discos internos, consulte la documentacin que se proporciona con el servidor y la pgina de comando man raidctl (1M).
Pasos siguientes

SPARC: Para crear Sun Logical Domains (LDoms), vaya a SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.

SPA R C : Instalacin del software Sun Logical Domains y creacin de dominios


Realice este procedimiento para instalar el software Sun Logical Domains (LDoms) en un equipo agrupado fsicamente en clsteres y para crear dominios invitados y de E/S.

Antes de empezar

Realice las siguientes tareas: Asegrese de que el equipo sea compatible con el hipervisor SPARC.

Tenga a mano los documentos LogicalDomains (LDoms) 1.0.3 Administration Guide y Logical Domains (LDoms) 1.0.3 Release Notes. Lea los requisitos y las directrices de SPARC: Directrices para Sun Logical Domains en un clster en la pgina 24.

1 2

Convirtase en superusuario en el equipo. Instale el software LDomsy configure los dominios. Siga los procedimientos descritos en la seccin Installing and Enabling Software de Logical Domains (LDoms) 1.0.3 Administration Guide. Si crea dominios invitados, siga las directivas de Oracle Solaris Cluster para la creacin de dominios invitados en un clster.

Use la opcin mode=scpara todos los dispositivos de conmutacin virtuales que conectan los dispositivos de red virtuales utilizados como interconexin del clster. Para el almacenamiento compartido, asigne slo los discos S C S Icompletos a los dominios invitados.

Pasos siguientes

Si su servidor no admite la creacin de reflejos de unidades de disco duro internas y debe configurar esta funcin, vaya a Cmo configurar la creacin de reflejos de discos internos en la pgina 75. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.

Cmo instalar el software Sistema de archivos de Veritas


Para utilizar el software Sistema de archivos de Veritas (VxFS) en el clster, realice este procedimiento en cada uno de los nodos del clster global. Siga los procedimientos descritos en la documentacin de instalacin de V xFSpara instalar V xFSen cada nodo del clster. Instale los parches de Oracle Solaris Cluster necesarios para poder utilizar VxFS. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

En el archivo /etc/system de cada uno de los nodos, establezca los siguientes valores.
set rpcmod:svc_default_stksize=0 set lwp_default_stksize=0x6000 x8000

Estos cambios se aplicarn en el siguiente reinicio del sistema.

El software Oracle Solaris Cluster necesita un valor de rpcmod:svc_default_stksize mnimo de0x8000. Dado que, durante la instalacin de VxFS se establece el valor de la variable rpcmod:svc_default_stksize en 0x4000, debe configurar manualmente el valor en 0x8000 una vez finalizada la instalacin. Debe configurar la variable lwp_default_stksize del archivo /etc/system para que anule el valor predeterminado de VxFS que se ha establecido en 0x4000.

Pasos siguientes

Instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.

Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster
Siga este procedimiento para realizar una o varias de las tareas de instalacin siguientes con la utilidad installer :

Instale los paquetes de software de la estructura de Oracle Solaris Cluster en cada nodo del clster global. Estos nodos pueden ser equipos fsicos o dominios invitados o de E/S de Sun Logical Domains (LDoms) (slo en SPARC), o una combinacin de estos tipos de nodos. Instale el software de la estructura de Oracle Solaris Cluster en el nodo maestro en el que se crear un archivo de almacenamiento Flash para una instalacin mediante el mtodo JumpStart. Consulte Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 para obtener ms informacin sobre la instalacin de un clster global mediante el mtodo JumpStart. Instale los servicios de datos
Nota Este procedimiento instala servicios de datos slo en la zona global. Si desea

instalar los servicios de datos para que estn visibles en una determinada zona no global, consulte Cmo crear una zona no global en un nodo del clster global en la pgina 223.

Nota En este procedimiento, se utiliza el formato interactivo del programa installer

. Para utilizar el formato no interactivo del programa installer como, por ejemplo, al generar secuencias de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar

Realice las siguientes tareas:

Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.

Tenga a mano el DVD-ROM.

Restaure el acceso externo a comunicacin R P Cy, si lo desea, a Oracle Java Web Console. Durante la instalacin del sistema operativo Solaris, se utiliza un perfil de red restringida inhabilita el acceso externo para algunos servicios de red. Entre los servicios restringidos, se incluyen aquellos que afectan a la funcionalidad del clster:

El servicio de comunicacin RPC, que es necesario para la comunicacin del clster. El servicio de Oracle Java Web Console, que es necesario para utilizar la GUI de Oracle Solaris Cluster Manager.

Mediante los siguientes pasos se pueden restaurar las funciones de Solaris utilizadas por la estructura de Oracle Solaris Cluster, pero cuyo uso se limita al utilizar un perfil de red restringido. a. Ejecute los comandos siguientes para restaurar el acceso externo a la comunicacin RPC.
phys-schost# svccfg svc:> select network/rpc/bind svc:/network/rpc/bind> setprop config/local_only=false svc:/network/rpc/bind> quit phys-schost# svcadm refresh network/rpc/bind:default phys-schost# svcprop network/rpc/bind:default | grep local_only

En la salida del ltimo comando, la propiedad local_only debera aparecer ahora configurada como "false" (falso). b. (Opcional) ejecute los comandos siguientes para restaurar el acceso externo a Oracle Java Web Console.
phys-schost# svccfg

s v c : > s e l e c t s y s t e m / w e b c o n s o l e s v c : / s y s t e m / w e b c o n s o l e > s e t p r o p o

ptions/tcp_listen=true

svc:/system/webconsole> quit phys-schost# /usr/sbin/smcwebserver restart phys-schost# netstat -a | grep 6789

El resultado del siguiente comando debera devolver una entrada para 6789, que es el nmero de puerto utilizado para conectarse a Oracle Java Web Console. Para obtener ms informacin sobre los servicios que limita el perfil de red restringido en las conexiones locales, consulte Planificacin de la seguridad de la red de Gua de instalacin de Solaris 10 10/09: planificacinde la instalacin y la modernizacin.
2

(Opcional) Para usar el programa installer con una G U I,asegrese de que el entorno de visualizacin del nodo del clster que se va a instalar se haya configurado para mostrar la GUI.
% xhost + % setenv D IS P L A Y nodenam :0.0 e

Si no lleva a cabo esta configuracin, el programa installer en texto.


3

se ejecutar en el modo basado

Convirtase en superusuario en el nodo del clster en el que se va a realizar la instalacin.


Nota Si los equipos agrupados fsicamente en clsteres se configuran con LDoms, instale

el software Oracle Solaris Cluster slo en los dominios invitados o de E/S.


4

Inserte el D VD-R O Men la unidad de D VD-R OM . Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. Acceda al directorio del asistente de instalacin del D VD-R OM .

Si va a instalar los paquetes de software en la plataforma SPARC, escriba el siguiente comando:


phys-schost# cd /cdrom/cdrom0/Solaris_sparc

Si va a instalar los paquetes de software en la plataforma x86, escriba el siguiente comando:


phys-schost# cd /cdrom/cdrom0/Solaris_x86

Inicie el programa del asistente de instalacin.


phys-schost# ./installer

Consulte Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para obtener informacin adicional sobre el uso de los diferentes formatos y funciones del programa installer de
7

Siga las instrucciones que aparecen en la pantalla para instalar el software de la estructura de Oracle Solaris Cluster y los servicios de datos en el nodo.

Si no desea instalar Oracle Solaris Cluster Manager, que anteriormente se denominaba SunPlex Manager, anule su seleccin.
Nota Debe instalar Oracle Solaris Cluster Manager en todos los nodos del clster o, de

lo contrario, no lo instale en ninguno.

Si desea instalar el software Oracle Solaris Cluster Geographic Edition, seleccinelo. Una vez establecido el clster, consulte Oracle Solaris Cluster Geographic Edition Installation Guide para obtener los procedimientos de instalacin adicionales.

Cuando se le solicite, seleccione Configurar ms tarde para configurar el software de la estructura de Oracle Solaris Cluster. Una vez finalizada la instalacin, puede consultar el registro de instalacin disponible.

10

Pasos siguientes

Extraiga el D VDR O Mde la unidad de D VD-R OM . a. Para asegurarse de que no se est utilizando el D VD-R O M , acceda a un directorio que no est incluido en ste. b. Expulse el D VD-R OM .
p h y s s c h o s t # e j e c t c d r o m

Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. Si va a utilizar uno de los adaptadores que se especifican a continuacin para la interconexin de clster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
Adaptador Entrada

ce ipge ixge

set ce:ce_taskq_disable=1 establecer establecer ipge:ipge_taskq_disable=1 ixge:ixge_taskq_disable=1

Esta entrada se aplicar una vez reiniciado el sistema. Si desea instalar el sistema de archivos Sun QFS, siga los procedimientos de instalacin inicial. Consulte Cmo instalar el software Sun QFS en la pgina 82.

Aplique los parches necesarios para admitir el uso del software Oracle Solaris Cluster.

De lo contrario, para configurar el entorno de usuario root, vaya a Cmo configurar el entorno de usuario root en la pgina 82.

Cmo instalar el software Sun QFS


Realice este procedimiento en cada nodo del clster global. Asegrese de que el software Oracle Solaris Cluster se encuentre instalado. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Convirtase en superusuario en un nodo del clster. Instale el software del sistema de archivos Sun QFS. Siga los procedimientos de instalacin inicial descritos en Instalacin de Sun QFS. Configure el entorno de usuario root. Vaya a Cmo configurar el entorno de usuario root en la pgina 82.

2 3

Pasos siguientes

Cmo configurar el entorno de usuario root


Nota En una configuracin de Oracle Solaris Cluster, los archivos de inicializacin del

usuario para los diversos shells comprueban si stos se ejecutan en un shell interactivo. Deben verificarse los archivos antes intentar de establecer una salida en el terminal. De lo contrario, puede producirse un comportamiento inesperado o los archivos pueden interferir en los servicios de datos. Consulte Customizing a Users Work Environment de System Administration Guide: Basic Administration para obtener ms informacin. Realice este procedimiento en cada nodo del clster global.
1 2

Convirtase en superusuario en un nodo de clster. Modifique las entradas P A T H y M A N P A del T H archivo .cshrc o .profile . a. Agregue /usr/sbin/ b. Agregue /usr/cluster/man/ y /usr/cluster/bin/ a M A N P A. T H a P A T .H

Consulte la documentacin del SO Solaris, del administrador de volmenes y de las

dems aplicaciones para obtener informacin sobre las rutas de archivo que deben establecerse.

(Opcional) Para facilitar la administracin, establezca la misma contrasea del usuario root en cada nodo, si an no lo ha hecho. Si desea utilizar el filtro IP de Solaris, vaya a Cmo configurar el filtro IP de Solaris en la pgina 83. De lo contrario, configure el software Oracle Solaris Cluster en los nodos del clster. Vaya a Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86.

Pasos siguientes

Cmo configurar el filtro IP de Solaris


Realice este procedimiento para configurar el filtro IP de Solaris en el clster global.
Nota Utilice slo el filtro IP de Solaris con los servicios de datos de migracin tras error. No

se admite el uso del filtro IP de Solaris con los servicios de datos escalables. Para obtener ms informacin sobre la funcin de filtro IP de Solaris, consulte Parte IV, Seguridad IP de Gua de administracin del sistema:serviciosIP.
Antes de empezar

Lea las directrices y restricciones que se deben seguir al configurar el filtro IP de Solaris en un clster. Consulte el apartado relativo al filtro IP en Restricciones de las funciones del sistema operativo Oracle Solaris en la pgina 17. Convirtase en superusuario. Agregue las reglas de filtros al archivo /etc/ipf/ipf.conf en todos los nodos afectados. Tenga en cuenta las siguientes directrices y requisitos al agregar reglas de filtros a los nodos de Oracle Solaris Cluster.

1 2

En el archivo ipf.conf de cada uno de los nodos, agregue las reglas para permitir de forma explcita el paso del trfico de interconexin del clster sin filtrar. Las reglas que no sean especficas de una interfaz se aplicarn a todas las interfaces, incluidas las interconexiones del clster. Asegrese de que no se bloquee por error el trfico en estas interfaces. Si se bloquea el trfico de interconexin, la configuracin del filtro IP interfiere en las operaciones de infraestructura y entrada en comunicacin de clster. Por ejemplo, suponga que se estn utilizando actualmente las siguientes reglas:
# Default block T C P/U D P unless some later rule overrides block return-rst in proto tcp/udp from any to any

# D e f a u l t b l o c k p i n g u n l e s s s o m e l a t e r r u l e o v e r r i d e s b l o c k r e t

urn-rst

in proto icmp all

Para desbloquear el trfico de interconexin del clster, agregue las siguientes reglas. Las subredes se utilizan nicamente a modo de ejemplo. Obtenga las subredes que se van a utilizar mediante el comando ifconfig interface.
# Unblock cluster traffic on 172.16.0.128/25 subnet (physical pass in quick proto tcp/udp from 172.16.0.128/25 to any pass out quick proto tcp/udp from 172.16.0.128/25 to any # Unblock cluster traffic on 172.16.1.0/25 subnet (physical pass in quick proto tcp/udp from 172.16.1.0/25 to any pass out quick proto tcp/udp from 172.16.1.0/25 to any interconnect)

interconnect)

# Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet) pass in quick proto tcp/udp from 172.16.4.0/23 to any pass out quick proto tcp/udp from 172.16.4.0/23 to any

Puede especificarel nombre del adaptador o la direccin IP de una red privada de clsteres. Por ejemplo, la regla siguiente especifica una red privada de clsteres por el nombre de su adaptador:
# Allow all traffic on cluster pass in quick on e1000g1 all . . . private networks.

El software Oracle Solaris Cluster migra las direcciones de red de un nodo a otro tras un error. No se necesita ningn procedimiento o cdigo especial durante la migracin tras error. Todas las reglas de filtrado que hacen referencia a las direcciones IP de los recursos de direccin compartida y nombre de host lgico deben ser idnticas en todos los nodos del clster. Las reglas en un nodo en espera harn referencia a una direccin IP inexistente. Esta regla sigue formando parte del conjunto de reglas activas del filtro IP y se aplicar cuando el nodo reciba la direccin tras una migracin tras error. Todas las reglas de filtrado deben ser iguales para todos los NIC del mismo grupo IPMP. En otras palabras, si una regla es especfica de una interfaz, la misma regla debe aplicarse a todas las dems interfaces del grupo IPMP.

Para obtener ms informacin sobre las reglas del filtro IP de Solaris, consulte la pgina de comando man ipf (4).
3

Habilite el ipfilter .

servicio

de

SM F

phys-schost# svcadm enable /network/ipfilter:default Pasos siguientes

Configure el software Oracle Solaris Cluster en todos los nodos del clster. Vaya a Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86.

Establecimien to del clster global

A P T U L O

Este captulo presenta los procedimientos para establecer un clster global o un nodo de clster global nuevo.
Nota Para crear un clster de zona, consulte Configuracin de un clster de zona

en la pgina 229. Para poder crear un clster de zona, debe establecer un clster global primero. En este captulo se describen los siguientes procedimientos:

Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) en la pgina 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) en la pgina 98 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 Cmo preparar el clster para nodos de clster global adicionales en la pgina 125 Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142 Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146 Cmo configurar dispositivos del qurum en la pgina 149 Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Configuracin de la distribucin de la carga de grupos entre nodos en la pgina 158 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166 Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169
85

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Establecimiento de un nuevo clster global o de un nuevo nodo de clster global


Esta seccin ofrece informacin y procedimientos para establecer un clster global nuevo y para agregar un nodo a un clster existente. Los nodos de clster global pueden ser mquinas fsicas, (slo SPARC) dominios de E/S de Sun Logical Domains (LDoms) o dominios invitados de LDoms. Un clster puede estar formado por cualquier combinacin de estos tipos de nodo. Antes de comenzar a realizar estas tareas, asegrese de haber instalado los paquetes de software del sistema operativo Oracle Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalacin del software en la pgina 61. Los mapas de tareas siguientes enumeran las tareas que deben efectuarse en el caso de un clster global nuevo o en el de un nodo que se ha agregado a un clster global ya existente. Realice los procedimientos en el orden indicado.

Mapa de tareas: establecer un nuevo clster global Mapa de tareas: agregar un nodo a un clster global

TA B L A 31 Mtodo

Mapa de tareas: establecer un nuevo clster global


Instrucciones

Use uno de los mtodos siguientes para establecer un nuevo clster global:

Use la utilidad scinstall

para establecer el clster.

Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) en la pgina 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) en la pgina 98

Utilice un archivo de configuracin XML para establecer el clster.

Cmo instalar el software de Solaris y Oracle Solaris Cluster Configure un servidor de instalacin de JumpStart. A (JumpStart) en la pgina 107 continuacin, cree un archivo de almacenamiento flash del sistema instalado. Por ltimo, utilice la opcin scinstall de JumpStart para instalar el archivo de almacenamiento flash en todos los nodos y establecer el clster. Cmo configurar dispositivos del qurum en la pgina 149 Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166

Asigne los votos del qurum y abandone el modo de instalacin del clster si todava no lo ha hecho. Valide la configuracin del qurum. (Opcional) Cambie el nombre de host privado de un nodo. Cree o modifique el archivo de configuracin de NTP si no lo ha hecho todava. (Opcional) Configure IPsec para proteger la interconexin privada.

86

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


TA B L A 31 Mtodo

Mapa de tareas: establecer un nuevo clster global

(Continuacin)
Instrucciones

Si utiliza un administrador de volmenes, instale el software de administracin de volmenes. Cree sistemas de archivos del clster o sistemas de archivos locales de alta disponibilidad segn sea necesario. (Opcional) SPARC: Configure Sun Management Center para que supervise el clster. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.

Captulo 4, Configuracin del software Solaris Volume Manager o Captulo 5, Instalacin y configuracin de Veritas Volume Manager o Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Oracle Solaris Cluster Data ServicesPlanning and Administration Guide Documentacin suministrada con el software de la aplicacin

Realice un registro de lnea de base de la configuracin final del clster.


TA B L A 32 Mtodo

Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169

Mapa de tareas: agregar un nodo a un clster global


Instrucciones

Utilice el comando clsetup para agregar el nodo nuevo a la lista de nodos autorizados del clster. Si fuera necesario, configure tambin la interconexin del clster y reconfigure el intervalo de direcciones de red privada. Reconfigure la interconexin del clster y el rango de direcciones de redes privadas como sea preciso para acomodar el nodo agregado.

Cmo preparar el clster para nodos de clster global adicionales en la pgina 125

Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128

Use uno de los mtodos siguientes para agregar un nodo a un clster global:

Cmo instalar el software de Solaris y Oracle Solaris Cluster Configure un servidor de instalacin de JumpStart. A (JumpStart) en la pgina 107 continuacin, cree un archivo de almacenamiento flash del sistema instalado. Por ltimo, utilice la opcin scinstall de JumpStart para instalar el archivo de almacenamiento flash en el nodo que se agrega al clster. Configure el software Oracle Solaris Cluster en el nodo nuevo Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 mediante la utilidad scinstall . Configure el software Oracle Solaris Cluster en el nodo nuevo Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142 mediante un archivo de configuracin XML. Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146

Actualice la informacin de configuracin del qurum.

Captulo 3 Establecimien to del cls ter global

87

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


TA B L A32 Mtodo

Mapa de tareas: agregar un nodo a un clster global

(Continuacin)
Instrucciones

Valide la configuracin del qurum. (Opcional) Cambie el nombre de host privado de un nodo. Modifique la configuracin de NTP. Si IPsec est configurado en el clster, configure IPsec en el nodo agregado. Si utiliza un administrador de volmenes, instale el software de administracin de volmenes. Cree sistemas de archivos del clster o sistemas de archivos locales de alta disponibilidad segn sea necesario. (Opcional) Si el clster utiliza SPARC: Sun Management Center , instale Sun Management Center en el nodo nuevo y configure dicho nodo para supervisin. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.

Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166 Captulo 4, Configuracin del software Solaris Volume Manager o Captulo 5, Instalacin y configuracin de Veritas Volume Manager o Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Oracle Solaris Cluster Data Services Planning and Administration Guide Documentacin suministrada con el software de la aplicacin

Realice un registro de lnea de base de la configuracin final del clster.

Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169

Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall )
Lleve a cabo este procedimiento en uno de los nodos del clster global para configurar el software Oracle Solaris Cluster en todos los nodos del mismo.

88

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Nota En este procedimiento, se utiliza el formato interactivo del programa scinstall

. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalacin, consulte la pgina de comando man scinstall (1M). Asegrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall . Para obtener informacin sobre cmo ejecutar el programa installer de desde una secuencia de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar

Realice las siguientes tareas:

Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.

SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en todos los nodos. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado

Direccin de red privada Mscara de red privada


Captulo 3 Establecimien to del cls ter global

172.16.0.0 255.255.240.0
89

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global Adaptadores de transporte de clster

Exactamente dos adaptadores switch1 y switch2 Habilitado

Conmutadores de transporte de clster Aislamiento global

90

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Componen te

Valor predeterminado

Nombre del sistema de archivos de los dispositivos globales

/globaldevices Si scinstall no encuentra un sistema de archivos /globaldevices montado en /etc/vfstab en un nodo, le solicita que configure un dispositivo lofi o que especifique otro nombre de sistema de archivos Limitada

Seguridad de la instalacin (DES)

Rellene una de las hojas de trabajo para la configuracin del clster de las que se muestran a continuacin en funcin de si ejecuta la utilidad scinstall en el modo tpico o personalizado.

Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Respuesta

Componen te

Descripcin/Ejemplo

Nombre del clster Nodos del clster Cables y adaptadores para el transporte del clster

Cmo se llama el clster que desea establecer? Muestra los nombres del resto de los nodos que se van a incluir en la configuracin inicial del clster. (En el caso de un clster con un solo nodo, pulse Control+D). Cmo se llaman los dos adaptadores de transporte del clster que acoplan el nodo a la interconexin privada? Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador?

Primero

Segundo

S | No

S | No

Configuracin del qurum (slo clsteresde dos nodos) Comprobacin

Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera los requisitospara ser un dispositivodel qurum o si desea configurarun servidor de qurum o un dispositivo NAS de Network Appliance como dispositivodel qurum). Desea interrumpir la creacin del clster para comprobar errores mediante el comando cluster check?

S | No

S | No

Componen te

Descripcin/Ejemplo

Respuesta

Sistema de archivos de dispositivos globales

(Este mensaje aparece cuando no se encuentra ningn sistema de archivos /globaldevicesmontado en un nodo). Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? (Slo Solaris 10) En caso de haber respondido negativamente, prefiere utilizar un dispositivo lofi y continuar con la instalacin? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? Cmo se llama el sistema de archivos que desea utilizar?

S | No

S | No

S | No

Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.
Nota Al instalar un clster de un solo nodo, la utilidad scinstall

asigna

automticamente la direccin de red privada y la mscara de red predeterminadas, aunque el clster no utilice una red privada.

Componen te

Descripcin/Ejemplo

Respuesta

Nombre del clster Nodos del clster

Cmo se llama el clster que desea establecer? Muestra los nombres del resto de los nodos que se van a incluir en la configuracin inicial del clster. (En el caso de un clster con un solo nodo, pulse Control+D). Necesita usar la autenticacin DES? No | S

Autenticacin de solicitudes para agregar nodos (slo clsteres de varios nodos) Nmero mnimo de redes privadas (slo clsteres de varios nodos) Cables punto a punto (slo clsteres de varios nodos)

Debera usarse este clster con, al menos, dos redes privadas? S | No

Si se trata de un clster de dos nodos, utiliza conmutadores? S | No

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


Componen te Descripcin/Ejemplo Respuesta

Conmutadores de clster (slo clsteresde varios nodos) Cables y adaptadores para el transporte del clster (slo clsteresde varios nodos) Nombre del conmutador de transporte: Valores predeterminados: switch1 y switch2 Nombre del nodo (nodo desde el que ejecuta scinstall):

Primero

Segundo

Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Desea utilizar la funcin de descubrimiento automtico para que se muestren los adaptadores disponibles para el resto de los nodos? En caso negativo, proporcione la siguiente informacin para cada nodo adicional: Primero S | No

Segundo

S | No

Segundo

S | No

S | No

S | No

Especifiquela informacin para cada nodo adicional (slo clsteresde varios nodos)

Nombre del nodo: Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Primero Segundo S | No S | No Segundo

S | No

S | No

92

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


Componen te Descripcin/Ejemplo Respuesta

Direccin de red para el transporte del clster (slo clsteres de varios nodos)

Acepta la direccin de red predeterminada (172.16.0.0 )? En caso negativo, qu direccin de red privada desea utilizar? Acepta la mscara de red predeterminada? En caso negativo, cul es el nmero mximo de nodos, redes privadas y clsteres de zona que pretende configurar en el clster? .

S | No . .

S | No nodos redes clsteres de zona

Qu mscara de red desea usar? (Elija uno de los valorescalculadospor scinstall o introduzca sus propios valores). Aislamiento global Desea inhabilitar el aislamiento global? (Responda No a menos que el sistema de almacenamiento compartido no admita reservasde SCSI o si desea que accedan al sistema de almacenamiento compartido sistemas externos al clster). Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera los (slo clsteres de dos nodos) requisitospara ser un dispositivo del qurum o si desea configurarun servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum). Sistema de archivos de dispositivos globales (especifiqueesta informacin para cada nodo) Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? En caso negativo, se puede utilizar el mtodo lofi? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? Cmo se llama el sistema de archivos que desea utilizar? Comprobacin (slo clsteres de varios nodos) (slo clsteres de un solo nodo) Reinicio automtico (slo clsteres de un solo nodo) Desea interrumpir la creacin del clster para comprobar errores mediante el comando cluster check?

S | No

S | No

S | No

S | No

S | No S | No S | No

S | No

Desea ejecutar la utilidad cluster check para validar el clster? Desea que scinstall reinicie automticamente el nodo tras la instalacin?

S | No

S | No

Siga estas directrices para usar la utilidad scinstall

interactiva en este procedimiento:

Captulo 3 Establecimien to del cls ter global

93

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.

Si ha inhabilitado la configuracin remota durante la instalacin del software Oracle Solaris Cluster, vuelva a habilitarla. Habilite acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del clster. Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (ND P)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.

Inicie la utilidad scinstall

desde un nodo del clster.

phys-schost# /usr/cluster/bin/scinstall 4

Escriba el nmero correspondiente a la opcin Create a New Cluster or Add a Cluster Node (Crear un clster o agregar un nodo de clster) y pulse la tecla Intro.
*** Main M enu *** Please select from one of the following (*) options: server

* 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option:
94

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Aparece el men Nuevo clster o nodo del clster.


5

Escriba el nmero correspondiente a la opcin para crear un clster y pulse la tecla Intro. Aparece el men Typical or Custom Mode (Modo tpico o personalizado).

Escriba el nmero correspondiente a la opcin Typical or Custom (Tpica o Personalizada) y pulse la tecla Intro. Aparece la pantalla Create a New Cluster (Crear un clster). Lea los requisitos y, a continuacin, pulse Control+D para continuar.

Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. La utilidad scinstall instala y configura todos los nodos del clster y reinicia el clster. El clster se establecer cuando todos los nodos se hayan iniciado satisfactoriamente en l. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.

Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default

Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status

La salida presenta un aspecto similar al siguiente.


=== Cluster Nodes === --- Node Status --Node N am e --------phys-schost-1 phys-schost-2 phys-schost-3 Status -----Online Online Online

Para obtener ms informacin, consulte la pgina de comando man clnode (1CL).

Captulo 3 Establecimien to del cls ter global

95

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

10

(Opcional) Habilite la funcin de reinicio automtico de nodos. Esta funcin reinicia automticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del clster. a. Habilite automtico. -p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . node enabled

el

reinicio

phys-schost# clnode set -p reboot_on_path_failure=enabled

11

Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para N FS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs

El cambio realizado en el archivo /etc/system se aplicar en el siguiente reinicio del sistema.

96

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de

alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.

Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.

Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
Ejemplo 31

Configuracindel software Oracle Solaris Cluster en todos los nodos


En el siguiente ejemplo, se muestran los mensajes de progreso de scinstall que se van registrando a medida que scinstall completa tareas de configuracin en el clster de dos nodos, schost . El clster se instala desde phys-schost-1 mediante la utilidad scinstall en el modo tpico. El otro nodo del clster es phys-schost-2 . Los nombres de los adaptadores son qfe2 y qfe3. La seleccin automtica del dispositivo del qurum est habilitada. Los dos nodos utilizan la particin /globaldevices para el espacio de nombres de dispositivos globales.
Installation and Configuration

Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices " on "phys-schost-1 " . . . done Testing for "/globaldevices " on "phys-schost-2 " . . . done Checking installation status . . . done The Sun Cluster software is already installed on "phys-schost-1 ". The Sun Cluster software is already installed on "phys-schost-2 ". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 phys-schost-1:qfe3 switch1 switch2 phys-schost-2:qfe2 phys-schost-2:qfe3 transport configuration.

Completed discovery of the cluster Started cluster

check on "phys-schost-1 ".


97

Captulo 3 Establecimien to del cls ter global

Started cluster cluster cluster

check on "phys-schost-2 ".

check completed with no errors or warnings for "phys-schost-1 ". check completed with no errors or warnings for "phys-schost-2 ". ... done

Removing the downloaded file s

Configuring "phys-schost-2 " . . . done Rebooting "phys-schost-2 " . . . done Configuring "phys-schost-1 " . . . done Rebooting "phys-schost-1 " . . . Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting . . . Errores ms frecuentes

Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento.

Pasos siguientes

Si ha instalado un clster con un nico nodo, ya se ha completado el establecimiento del clster. Vaya a Creacin de sistemas de archivos del clster en la pgina 217 para instalar el software de administracin de volmenes y configurar el clster. Si ha instalado un nodo de varios clsteres y ha decidido configurar el qurum automticamente, la configuracin posterior a la instalacin finaliza aqu. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster de varios nodos y ha rechazado la configuracin automtica del qurum, lleve a cabo la configuracin posterior a la instalacin. Vaya a Cmo configurar dispositivos del qurum en la pgina 149.

Si pretende configurar algn dispositivo del qurum en el clster, vaya a Cmo configurar dispositivos del qurum en la pgina 149. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Cmo configurar el software Oracle Solaris Cluster en todos los nodos (X M L )


Lleve a cabo este procedimiento para configurar un clster global nuevo mediante un archivo XML de configuracin del clster. El clster nuevo puede ser un reflejo de un

clster existente que ejecute el software Oracle Solaris Cluster 3.3.

Mediante este procedimiento, se configuran los siguientes componentes del clster:


Nombre del clster Pertenencia de nodos del clster Interconexin del clster Dispositivos globales

Antes de empezar

Realice las siguientes tareas:

Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster. Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.

SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que el software y los parches de Oracle Solaris Cluster 3.3 estn instalados en todos los nodos que vaya a configurar. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.

Asegrese de que el software Oracle Solaris Cluster 3.3 no est instalado todava en los nodos potenciales del clster. a. Convirtase en superusuario en alguno de los nodos que desee configurar en el clster nuevo.

b. Determine si el software Oracle Solaris Cluster est o no configurado en el nodo potencial.


p h y s s c h o s t # / u s r / s b i n / c l i n f o n

muestra a continuacin, vaya al paso c.


clinfo: node is not configured as part of acluster: Operation not applicable

Si el coma ndo devu elve el mens aje que se

Este mensaje indica que el software Oracle Solaris Cluster todava no se ha configurado en el nodo potencial.

S i el comando devuelve el nmero de ID del nodo, no realice este procedimiento. La devolucin de un ID de nodo indica que el software Oracle Solaris Cluster ya est configurado en el nodo. Si el clster ejecuta una versin anterior del software Oracle Solaris Cluster y desea instalar el software Oracle Solaris Cluster 3.3, realice los procedimientos de actualizacin recogidos en Oracle Solaris Cluster UpgradeGuide.

c. Repita los pasos a y b en el resto de los nodos potenciales que desee configurar en el clster nuevo. Si el software Oracle Solaris Cluster an no se ha configurado en ningn nodo potencial del clster, vaya al paso 2.
2

Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (ND P)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.

Si est creando un reflejo de un clster existente que ejecuta el software Oracle Solaris Cluster 3.3, utilice un nodo de ese clster para crear un archivo X M Lde configuracin del clster. a. Convirtase en superusuario en un miembro activo del clster que desee reflejar. b. Exporte la informacin de la configuracin del clster existente a un archivo.
phys-schost# cluster export -o clconfigfile

-o Especificael destino de salida. clconfigfile Nombre del archivo XML de configuracin del clster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando

crear. Para obtener ms informacin, consulte la pgina de comando man cluster (1CL).

c. Copie el archivo de configuracin en el nodo potencial desde el que configurar el clster nuevo. Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurar como nodos del clster.
4 5

Convirtase en superusuario en el nodo potencial desde el que configurar el clster nuevo. Modifique el archivo X M Lde configuracin del clster segn sea necesario. a. Abra el archivo X M Lde configuracin del clster para editarlo.

Si va a crear un reflejo de un clster existente, abra el archivo que cre con el comando cluster expor t. S i no va a crear un reflejo de un clster existente, cree un archivo nuevo. Base el archivo en la jerarqua de elementos que se muestra en la pgina de comando man clconfiguration (5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurar como nodos del clster.

b. Modifique los valores de los elementos X M Lpara reflejar la configuracin de clster que desea crear.

Para poder establecer un clster, los siguientes componentes deben poseer valores vlidos en el archivo XML de configuracin del clster:

Nombre del clster Nodos del clster Transporte del clster

A l crear el clster, se asume que la particin /globaldevices existe en todos los nodos que configure como nodos del clster. El espacio de nombres de los dispositivos globales se crea en esa particin. Si necesita utilizar un nombre de sistema de archivos distinto para crear los dispositivos globales, agregue la propiedad que aparece a continuacin al elemento <propertyList> de los nodos que no tengan una particin denominada /globaldevices .
. . . <nodeList> <node name="node" id= "N"> <propertyList> . . . . . . . . .

<property name="globaldevfs"

value="/filesystem-name"> </propertyList> </node>

Si prefiere utilizar un dispositivo lofi para el espacio de nombres de los dispositivos globales, establezca el valor de la propiedad globaldevfs en lofi .

<property name="globaldevfs" value="lofi">

Cuando modifique informacin de configuracin exportada desde un clster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo clster, como los nombres de nodo, en las definiciones de varios objetos del clster.

Consulte la pgina de comando man clconfiguration(5CL) para obtener informacin detallada sobre la estructura y el contenido del archivo XML de configuracin del clster.
6

Valide el archivo X M Lde configuracin del clster.


phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

Consulte la pgina de comando man xmllint(1) para obtener ms informacin. Cree el clster desde el nodo potencial que contiene el archivo X M Lde configuracin del clster.
7 phys-schost# cluster create -i clconfigfile

-i clconfigfile Especificael nombre del archivo XML de configuracin del clster que se va a utilizar como fuente de entrada.
8

Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default

Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status

La salida presenta un aspecto similar al siguiente.


=== Cluster Nodes === --- Node Status --Node N am e --------phys-schost-1 phys-schost-2 phys-schost-3 Status -----Online Online Online

Para obtener ms informacin, consulte la pgina de comando man clnode (1CL).


10

Instale los parches necesarios para que el software Oracle Solaris Cluster sea compatible, si todava no lo ha hecho.

Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

11

Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para NFS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs

El cambio realizado en el archivo /etc/system se aplicar en el siguiente reinicio del sistema.


Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de

alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.

Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.

Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
12

Para crear reflejos de la informacin del qurum de un clster existente, configure el dispositivo del qurum con el archivo X M Lde configuracin del clster. Debe configurar un dispositivo del qurum si ha creado un clster de dos nodos. Si decide no utilizar el archivo XML de configuracin del clster para crear un dispositivo del qurum requerido, vaya a Cmo configurar dispositivos del qurum en la pgina 149. a. Si utiliza un servidor de qurum como dispositivo del qurum, asegrese de que el servidor est configurado y funcione correctamen te. Siga las instrucciones incluidas en Instalacin y configuracin del software Servidor de qurum en la pgina 64.

b. Si utiliza un dispositivo N A Scomo dispositivo del qurum, asegrese de que est configurado y operativo. i. Tenga en cuenta los requisitos para la utilizacin de un dispositivo N A Scomo dispositivo del qurum. Consulte Oracle Solaris Cluster 3.3 With Network-Attached StorageDevices Manual. ii. Siga las instrucciones de la documentacin del dispositivo N A Spara configurarlo. c. Asegrese de que la informacin de configuracin del qurum incluida en el archivo X M L de configuracin del clster refleje valores vlidos para el clster que ha creado. d. Si ha realizado cambios en el archivo X M Lde configuracin del clster, valdelo.
phys-schost# xmllint --valid --noout clconfigfile

e. Configure el dispositivo del qurum.


phys-schost# clquorum add -i clconfigfile devicename

nombre_dispositivo Especificael nombre del dispositivo que se va a configurar como dispositivo del qurum.
13

Abandone el modo de instalacin del clster.


phys-schost# clquorum reset

14

Impida el acceso de mquinas que no estn configuradas como miembros del clster a la configuracin del mismo.
phys-schost# claccess deny-all

15

(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled

-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: node

. . . reboot_on_path_failure: . . . Ejemplo 32

enabled

Configuracindel software Oracle Solaris Cluster en todos los nodos utilizando un archivo X M L
En el siguiente ejemplo, se crea el reflejo de la configuracin del clster y del qurum de un clster de dos nodos existente en un clster de dos nodos nuevo. El clster nuevo se instala con el SO Solaris 10y se configura sin zonas no globales. La configuracin del clster se exporta desde el nodo del clster existente, phys-oldhost-1 , al archivo XML de configuracin del clster clusterconf.xml . Los nombres de los nodos del clster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del qurum en el nuevo clster es d3. El nombre de indicador phys-newhost- N de este ejemplo seala que el comando se ejecuta en los dos nodos del clster.
phys-newhost- N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable

phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xmlto phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xm l phys-newhost- N# svcs multi-user-server STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml phys-newhost-1# clquorum reset Errores ms frecuentes d3

Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Pasos siguientes

Vase tambin

Una vez que se haya establecido completamente el clster, puede crear reflejos de la configuracin del resto de los componentes del clster existente. Si an no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuracin del clster a la que va a agregar el componente. Por ejemplo, si va a crear reflejos de grupos de recursos, asegrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo vlidos para el clster nuevo y no los nombres de nodo del clster que ha reflejado, a no ser que ambos coincidan. Para crear reflejos de un componente del clster, ejecute el subcomando export del comando orientado a objetos en el componente del clster que desee reflejar. Para obtener ms informacin acerca de la sintaxis y las opciones del comando, consulte la pgina de comando man del objeto del clster que desee reflejar. En la tabla que aparece a continuacin, se muestran los componentes del clster que se pueden crear desde un archivo XML de configuracin del clster una vez que ste se haya establecido, as como la pgina de comando man correspondiente al comando que se utiliza para crear reflejos del componente.

Componen te del clster

Pgina de comando man

Instrucciones especiales

Grupos de dispositivos: Solaris Volume Manager y Veritas Volume Manager

cldevicegroup (1CL)

En el caso de Solaris Volume Manager, cree en primer lugar los conjuntos de discos que especifique en el archivo XML de configuracin del clster. En cuanto a VxVM, instale y configure en primer lugar el software VxVM y cree los grupos de discos que especifique en el archivo XML de configuracin del clster.

Recursos Recursos de direccin compartida Recursos de nombre de host lgico Tipos de recursos Grupos de recursos Dispositivos NAS

clresource (1CL) clressharedaddress clreslogicalhostname clresourcetype (1CL) clresourcegroup (1CL) clnasdevice (1CL) (1CL) (1CL)

Puede utilizar la opcin -a de los comandos clresource , clressharedaddress o clreslogicalhostname para crear reflejos del tipo y el grupo de recursos asociados al recurso que va a reflejar. Si no la utiliza, debe agregar primero el tipo y el grupo del recurso al clster antes de aadir el recurso. Debe configurar, en primer lugar, el dispositivo NAS, tal como se describe en la documentacin del dispositivo. El comando clsnmphost create -i requiere que se especifique un archivo de contrasea de usuario con la opcin -f .

Hosts SNMP

clsnmphost (1CL)

Usuarios de SNMP

clsnmpuser (1CL)

Componen te del clster

Pgina de comando man

Instrucciones especiales

Umbrales de los recursos del sistema de supervisin en los objetos del clster

cltelemetryattribute

(1CL)

Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart)


En este procedimiento, se describe cmo configurar y utilizar el mtodo de instalacin personalizada scinstall(1M) de JumpStart. Mediante este mtodo se instalan tanto el SO Solaris como el software Oracle Solaris Cluster en todos los nodos del clster global y se establece el clster. Tambin puede utilizar este procedimiento para agregar nodos nuevos a un clster existente.

Antes de empezar

Realice las siguientes tareas:

Asegrese de que la configuracin del hardware se haya completado correctamente y de que se hayan comprobado las conexiones antes de instalar el software de Solaris. Consulte la Coleccinde administracin del hardware de Oracle Solaris Cluster y la documentacin del servidor y del dispositivo de almacenamiento para obtener informacin acerca de cmo configurar el hardware. Determine la direccin Ethernet de cada nodo del clster. Si utiliza un servicio de nombres, asegrese de que la informacin que se especificaa continuacin se incluya en los servicios de nombres que utilizan los clientes para acceder a los servicios del clster. Consulte las directrices de planificacin de Direcciones IP de red pblica en la pgina 27. Consulte la documentacin del administrador de sistemas de Solaris para obtener informacin sobre el uso de servicios de nombres de Solaris.

Asignacin de direccin al nombre para todos los nombres de host pblicos y las direcciones lgicas.

La direccin IP y el nombre de host del servidor de instalacin de JumpStart.


Asegrese de que se haya completado la planificacin de configuracin del clster. Consulte la seccin Cmo preparar la instalacin del software del clster en la pgina 62 para conocer los requisitos y las directrices. Asegrese de que todo el software, los parches y el firmware del SO Solaris necesarios para admitir el software Oracle Solaris Cluster estn instalados en el servidor desde el que va a crear el archivo de almacenamiento flash. Si el software de Solaris ya est instalado en el servidor, debe comprobar que la instalacin de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 instalar el software de Solaris de forma que cumpla los

requisitos del s o f t w a r e O r a c l e S o l a r i s C l u s t e r .

SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en el servidor desde el que va a crear el archivo de almacenamiento flash. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado

Direccin de red privada Mscara de red privada Adaptadores de transporte de clster Conmutadores de transporte de clster Aislamiento global Nombre del sistema de archivos de los dispositivos globales

172.16.0.0 255.255.240.0 Exactamente dos adaptadores switch1 y switch2 Habilitado /globaldevices (es necesaria una entrada en /etc/vfstab para montar /globaldevices ) Limitada

Seguridad de la instalacin (DES)

Rellene una de las hojas de trabajo para la configuracin del clster de las que se muestran a continuacin en funcin de si ejecuta la utilidad scinstall en el modo tpico o personalizado. Consulte Planificacin del entorno de Oracle Solaris Cluster en la pgina 26 para obtener directrices sobre planificacin.

Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Descripcin/Ejemplo Respuesta

Componen te

Directorio JumpStart Nombre del clster

Cmo se llama el directorio JumpStart que se va a utilizar? Cmo se llama el clster que desea establecer?

Componen te

Descripcin/Ejemplo

Respuesta

Nodos del clster

Muestra los nombres de los nodos del clster que se pretenden incluir en la configuracin inicial del clster. (Si se trata de un clster de un solo clster, pulse Control+D). Nombre del primer nodo: Primero Nombres de los adaptadores de transporte: Segundo

Cables y adaptadores para el transporte del clster

Slo adaptadoresVLAN

Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador?

S | No

S | No

Especifiquela informacin para cada nodo adicional

Nombre del nodo: Primero Nombres de los adaptadores de transporte: Segundo

Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera (slo clsteres de los requisitospara ser un dispositivodel qurum o si desea configurarun dos nodos) servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum).

S | No

S | No

Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.
Nota Al instalar un clster de un solo nodo, la utilidad scinstall

usa automticamente la direccin de red privada y la mscara de red predeterminadas, aunque el clster no utilice una red privada.

Componen te

Descripcin/Ejemplo

Respuesta

Directorio JumpStart Nombre del clster Nodos del clster

Cmo se llama el directorio JumpStart que se va a utilizar? Cmo se llama el clster que desea establecer? Muestra los nombres de los nodos del clster que se pretenden incluir en la configuracin inicial del clster. (Si se trata de un clster de un solo clster, pulse Control+D).

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


Componen te Descripcin/Ejemplo Respuesta

Autenticacin de solicitudes para agregar nodos (slo clsteresde varios nodos) Direccin de red para el transporte del clster (slo clsteresde varios nodos)

Necesita usar la autenticacin DES? No | S

Acepta la direccin de red predeterminada (172.16.0.0 )? En caso negativo, qu direccin de red privada desea utilizar? Acepta la mscara de red predeterminada? En caso negativo, cul es el nmero mximo de nodos, redes privadas y clsteres de zona que pretende configurar en el clster? . .

S | No . S | No nodos redes clsteres de zona

Qu mscara de red desea usar? Elija uno de los valorescalculados por scinstall o introduzca sus propios valores. Nmero mnimo de redes privadas (slo clsteresde varios nodos) Cables punto a punto (slo clsteresde dos nodos) Conmutadores de clster (slo clsteresde varios nodos) Cables y adaptadores para el transporte del clster (slo clsteresde varios nodos) (Slo adaptadoresVLAN) Nombre del conmutador de transporte, si se utiliza uno: Valores predeterminados: switch1 y switch2 Nombre del primer nodo: Utiliza conmutadores este clster? Debera usarse este clster con, al menos, dos redes privadas?

S | No

S | No

Primero

Segundo

Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? S | No

Segundo

S | No

110

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global


Componen te Descripcin/Ejemplo Respuesta

A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Especifiquela informacin para cada nodo adicional (slo clsteres de varios nodos) Nombre del nodo: Primero Nombre del adaptador de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Sistema de archivos de dispositivos globales Especifiqueesta informacin para cada nodo Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? S | No S | No S | No S | No Segundo S | No S | No

S | No En caso negativo, desea crear un sistema de archivos nuevo en una particin sin utilizar? Cul es el nombre del sistema de archivos? Aislamiento global Desea inhabilitar el aislamiento global? Responda No a menos que el sistema de almacenamiento compartido no admita reservasde SCSI o si desea que accedan al sistema de almacenamiento compartido sistemas externos al clster. Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera (slo clsteres de los requisitospara ser un dispositivodel qurum o si desea configurarun dos nodos) servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum). S | No S | No

S | No

S | No

Siga estas directrices para usar la utilidad scinstall

interactiva en este procedimiento:

Captulo 3 Establecimien to del cls ter global

111

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.

Configure el servidor de instalacin de JumpStart. Asegrese de que el servidor de instalacin de JumpStart cumpla los siguientes requisitos:

El servidor de instalacin se encuentra en la misma subred que los nodos del clster o en el servidor de inicio de Solaris de la subred que utilizan los nodos. El servidor de instalacin no es un nodo del clster. El servidor de instalacin instala una versin del SO Solaris compatible con el software Oracle Solaris Cluster. Existe un directorio JumpStart personalizado para la instalacin del software Oracle Solaris Cluster. Este directorio dir_jumpstart debe cumplir los siguientes requisitos:

Contener una copia de la utilidad check. Ser exportado mediante NFS para que lo lea el servidor de instalacin de JumpStart.

Cada nuevo nodo del clster se configura como un cliente de la instalacin personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalacin de Oracle Solaris Cluster.

Siga las instrucciones correspondientes a su plataforma de software y su versin de SO para configurar el servidor de instalacin de JumpStart. Consulte Creacin de un servidor de perfiles para sistemas conectados en red de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalacionesavanzadas. Consulte tambin las pginas de comando man setup_install_server(1M) add_install_client (1M).
2

Si instala un nodo nuevo en un clster existente, agrguelo a la lista de nodos de clster autorizados. a. Pase a otro nodo activo del clster e inicie la utilidad clsetup . b. Use la utilidad clsetup para agregar el nombre del nodo nuevo a la lista de nodos de clster autorizados. Para obtener ms informacin, consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster.

112

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

En un nodo de clster u otra mquina de la misma plataforma de servidor, instale el SO Solaris y los parches necesarios si an no lo ha hecho. Si el software de Solaris ya est instalado en el servidor, debe comprobar que la instalacin de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener ms informacin sobre cmo instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster. Siga los procedimientos descritos en Cmo instalar el software de Solaris en la pgina 70.

(Opcional) SPA R C :Instale el software Sun Logical Domains (LDoms)y cree los dominios si todava no lo ha hecho. Siga los procedimientos descritos en SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76.

Instale el software Oracle Solaris Cluster y los parches necesarios en el sistema instalado si todava no lo ha hecho. Siga los procedimientos descritos en Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

Habilite el inicio automtico del daemon de contenedor de agentes comn al iniciar el sistema.
machine# cacaoadm enable

En el sistema instalado, actualice el archivo /etc/inet/hosts pblicas que se utilizan en el clster.

con todas las direcciones IP

Realice este paso independientemente de si est utilizando un servicio de nombres. Consulte la lista de componentes de Oracle Solaris Cluster cuyas direcciones IP debe agregar en Direcciones IP de red pblica en la pgina 27.
8

En el sistema instalado, restablezca Oracle Java Web Console a su estado inicial sin configurar. El comando especificado ms abajo elimina la informacin de la configuracin de la consola web. Parte de esta informacin de configuracin es especfica del sistema instalado. Debe eliminar esta informacin antes de crear el archivo de almacenamiento flash. De lo contrario, la informacin de configuracin transferida al nodo del clster podra impedir que la consola web se iniciara o que interactuara correctamente con el nodo.
# /usr/share/webconsole/private/bin/wcremove -i console

Una vez instale la consola web no configurada en el nodo del clster y la inicie por primera vez, sta ejecutar automticamente su configuracin inicial y utilizar la informacin del nodo del clster.
Captulo 3 Establecimien to del cls ter global 113

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Para obtener ms informacin acerca del comando wcremove,consulte Oracle Java Web Console User Identity de System Administration Guide: Basic Administration .
9

Cree el archivo de almacenamiento flash del sistema instalado. Siga los procedimientos que se explican en el Captulo 3, Creacin de contenedores Solaris Flash (tareas) de Gua de instalacin de Solaris 10 10/09: contenedoresFlash de Solaris (creacin e instalacin).
machine# flarcreate -n name archive

-n name Nombre para el archivo de almacenamiento flash. archivo Nombre de archivo para el archivo de almacenamiento flash, con la ruta completa. Como norma general, el nombre del archivo debe terminar en .flar .
10

Asegrese de que el archivo de almacenamiento se exporte mediante N FSpara que el servidor de instalacin de JumpStart lo lea. Consulte el Captulo 4, Managing Network File Systems (Overview) de System Administration Guide: Network Servicespara obtener ms informacin acerca del uso automtico de archivos compartidos. Consulte, adems, las pginas de comando man share(1M) y dfstab (4).

11 12

Convirtase en superusuario en el servidor de instalacin de JumpStart. Inicie la utilidad scinstall (1M) desde el servidor de instalacin de JumpStart. En la ruta de medios, sustituya arch por sparc o x86 y ver por 10 en el caso de Solaris 10.
installserver# cd /cdrom/cdrom0Solaris_ arch /Product/sun_cluster/ \ Solaris_ ver/Tools/ installserver# ./scinstall

Aparecer el men principal de scinstall .


13

Seleccione el elemento de men Configurar un clster para que se le aplique JumpStart desde este servidor de instalacin. Esta opcin se utiliza para configurar las secuencias de comandos de finalizacin personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalizacin para instalar el software Oracle Solaris Cluster.
*** Main M enu *** Please select from one of the following (*) options: server

* 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install 3) Manage a dual-partition upgrade
114 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

4) Upgrade this cluster node * 5) Print release information for this cluster * ?) Help with menu options * q) Quit Option: 14 2

node

Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. El comando scinstall almacena la informacin de configuracin y copia el archivo class predeterminado autoscinstall.class en el directorio /dir_jumpstart/autoscinstall.d/3.2/ . Este archivo es parecido al del siguiente ejemplo.
install_type system_type partitioning filesys filesys filesys filesys cluster package initial_install standalone explicit rootdisk.s0 rootdisk.s1 rootdisk.s3 rootdisk.s7 S U N W C user S U N W m an

free / 750 swap 512 /globaldevices 20 add add

15

Si fuera necesario, realice ajustes en el archivo autoscinstall.class JumpStart de modo que instale el archivo de almacenamiento flash.

para configurar

a. Modifique las entradas segn sea necesario para que coincidan con la configuracin que realiz cuando instal el SO Solaris en la mquina del archivo de almacenamiento flash o cuando ejecut la utilidad scinstall . Por ejemplo, si asign el segmento 4 al sistema de archivos de dispositivos globales y especific a scinstall que el nombre del sistema de archivos es /gdevs, tendra que cambiar la entrada /globaldevices del archivo autoscinstall.class de la siguiente manera:
filesys rootdisk.s4 512 /gdevs

b. Modifique las siguientes entradas del archivo autoscinstall.class


Entrada existente que se ha de sustituir

Entrada nueva que se agrega

install_type system_type

initial_install standalone

install_type archive_location

flash_install ubicacin_tipo_recuperacin

Consulte la palabra clave archive_location en Palabra clave archive_location de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas para obtener informacin acerca de los valores vlidos para tipo_recuperaciny ubicacin cuando se utilizan con la palabra clave archive_location .
Captulo 3 Establecimien to del cls ter global 115

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

c. Suprima todas las entradas que pudieran instalar un paquete especfico, como las que aparecen a continuacin.
cluster package S U N W C user S U N W m an add add

d. Si desea utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, elimine la entrada filesys en la particin /globaldevices . e. Si su configuracin tuviera requisitos del software de Solaris adicionales, modifique el archivo autoscinstall.class segn corresponda. El archivo autoscinstall.class (SU N W C user ). instala el grupo de software de usuario final de Solaris

f. Si instala el grupo de software de Solaris de usuario final (S U N W C u ser ), agregue el archivo autoscinstall.class a cualquier otro paquete de Solaris que pudiera necesitar. En la tabla que aparece a continuacin, se muestran los paquetes de Solaris necesarios para que algunas funciones de Oracle Solaris Cluster sean compatibles. Estos paquetes no se incluyen en el grupo de software de usuario final de Solaris. Consulte Consideraciones sobre los grupos de software de Solaris en la pgina 18 para obtener ms informacin.
Funcin Paquetes de software de Solaris obligatorios

scsnapshot Oracle Solaris Cluster Manager

S U N W p 1 5SuU N W p 1 5SvU N W p 1 5 p SU N W apchr SU N W apchu

Puede cambiar el archivo class predeterminado de las siguientes formas:

Edite el archivo autoscinstall.class directamente. Estos cambios se aplican a todos los nodos de todos los clsteres que utilicen este directorio JumpStart personalizado. Actualice el archivo rules para que apunte a otros perfiles y, a continuacin, ejecute la utilidad check para validar el archivo rules .

Siempre que el perfil de instalacin del SO Solaris cumpla los requisitos mnimos de asignacin de sistema de archivos de Oracle Solaris Cluster, el software Oracle Solaris Cluster no pondr ninguna restriccin a la realizacin de otros cambios en el perfil de instalacin. Consulte Particiones de disco del sistema en la pgina 19 para conocer las directrices relativas a las particiones, as como los requisitos para que el software Oracle Solaris Cluster sea compatible. Para obtener ms informacin acerca de los perfiles de JumpStart, consulte el Captulo 3, Preparacin de instalaciones JumpStart personalizadas (tareas) de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalacionesavanzadas.
116 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

16

Para efectuar cualquier otra tarea posterior a la instalacin, configure su propia secuencia de comandos finish. Su propia secuencia de comandos de finalizacin se ejecuta despus de la secuencia de comandos de finalizacin estndar instalada por el comando scinstall . Consulte la informacin sobre la preparacin de instalaciones mediante JumpStart personalizadas en el Captulo 3, Preparacin de instalaciones JumpStart personalizadas (tareas) de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas para obtener informacin acerca de la creacin de secuencias de comandos de finalizacin de JumpStart. a. Asegrese de que el archivo class instale los paquetes de dependencia de Solaris. Consulte el Paso 15. b. D el nombre de finish a su secuencia de comandos de finalizacin. c. Realice las modificaciones pertinentes para que la secuencia de comandos finish realice las tareas posteriores a la instalacin que desee. d. Copie la secuencia de comandos finish en cada directorio jumpstart_dir/autoscinstall.d/nodes/ nodo. Cree un directorio nodo para cada nodo del clster. Tambin puede utilizar esta convencin de nomenclatura para crear vnculos simblicos en una secuencia de comandos finish compartida.

17 18

Salga del servidor de instalacin de JumpStart. Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (NDP)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.

Captulo 3 Establecimien to del cls ter global

117

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

19

Si utiliza una consola de administracin para el clster, abra una pantalla de la consola para cada nodo del clster.

S i el software Cluster Control Panel (CC P )se encuentra instalado y configurado en la consola de administracin, use la utilidad cconsole(1M) para que se muestren las pantallas individuales de la consola. Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

La utilidad cconsole abre, adems, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.

S i no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.

20

Cierre todos los nodos.


phys-schost# shutdown -g0 -y -i0

21

Arranque los nodos para comenzar la instalacin mediante JumpStart.

E n sistemas basados en SPA R C ,haga lo siguiente:


ok boot net - install Nota Deje un espacio a cada lado del guin (-) en el comando.

E n sistemas basados en x86, haga lo siguiente: a. Pulse cualquier tecla para comenzar con la secuencia de inicio.
Press any key to reboot. keystroke

b. Cuando aparezca la pantalla de informacin de la B IO S,pulse Esc+2 o la tecla F2 inmediatamen te. Cuando la secuencia de inicializacin finalice, aparecer la pantalla de la utilidad de configuracin de la BIOS. c. En la barra de mens de la utilidad de configuracin de la B IO S,vaya al elemento de men Boot (Arranque). Aparece la lista de dispositivos de inicio.

118

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

d. Vaya al IB Ade la lista que est conectado a la misma red que el servidor de instalacin PX E de JumpStart y colquelo en primer lugar en el orden de inicio. El nmero ms bajo de los que aparecen a la derecha de las opciones de inicio IBA corresponde al nmero de puerto Ethernet ms bajo. El nmero ms alto de los que aparecen a la derecha de las opciones de inicio IBA corresponde al nmero de puerto Ethernet ms alto. e. Guarde el cambio y salga de la BIOS. La secuencia de inicio vuelve a comenzar. Tras otros procesos, se muestra el men GRUB. f. Seleccione inmediatamente la entrada de JumpStart de Solaris y pulse Intro.
Nota Si la entrada de JumpStart de Solaris es la nica de la lista, tambin puede

esperar hasta que se agote el tiempo de espera de la pantalla de seleccin. Si no responde en 30 segundos, el sistema contina automticamente con la secuencia de inicio.
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line.

| | |

Despus de otros procesos, aparece el men de tipo de instalacin. g. En este men, escriba inmediatamente el nmero del men correspondiente a JumpStart personalizad o.
Nota Si no escribe el nmero correspondiente a JumpStart personalizado antes de

que finalice el periodo de espera de 30 segundos, el sistema inicia automticamente la instalacin interactiva de Solaris.
Select the type of installation 1 2 3 4 5 6 2 you want to perform:

Solaris Interactive Custom JumpStart Solaris Interactive Text (Desktop session) Solaris Interactive Text (Console session) Apply driver updates Single user shell

Enter the number of your choice.


119

Captulo 3 Establecimien to del cls ter global

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

JumpStart instala el SO de Solaris y el software Oracle Solaris Cluster en todos los nodos. Una vez finalizada correctamente la instalacin, todos los nodos se encuentran instalados completamente como nodos nuevos del clster. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N. h. Cuando vuelva a aparecer la pantalla de la B IO S,pulse inmediatamente Esc+2 o la tecla F2.
Nota Si no interrumpe la BIOS en ese momento, volver automticamente al men

de tipo de instalacin. En ese men, si no se introduce una opcin en 30 segundos, el sistema inicia automticamente una instalacin interactiva. Despus de otros procesos, aparece la utilidad de configuracin de la BIOS. i. En la barra de mens, vaya al men Boot (Arranque). Aparece la lista de dispositivos de inicio. j. Vaya a la entrada Disco duro y vuelva a colocarlo en primer lugar en el orden de inicio. k. Guarde el cambio y salga de la BIOS. La secuencia de inicio vuelve a comenzar. No se necesita ms interaccin con el men GRUB para finalizar el inicio en el modo de clster.
22

Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default

23

Si instala un nodo nuevo en un clster existente, cree puntos de montaje en el nuevo nodo para todos los sistemas de archivos de clster existentes. a. Muestre los nombres de todos los sistemas de archivos del clster desde un nodo de clster activo.
phys-schost# m ount | grep global | egrep -v n od e@ | a w k {print $1}

b. En el nodo que ha agregado al clster, cree un punto de montaje para cada sistema de archivos del clster.
phys-schost-new# mkdir -p mountpoint
120 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1 , ejecute mkdir -p /global/dg-schost-1 en el nodo que est agregando al clster.
Nota Los puntos de montaje se activan tras el reinicio del clster en el Paso 28.

c. Si Veritas Volume Manager (V xV M est ) instalado en algn nodo de los que ya existen en el clster, consulte el nmero vxio de cada nodo con V xV Minstalado.
phys-schost# grep vxio /etc/name_to_major vxio NNN

Asegrese de que se utilice el mismo nmero vxio en todos los nodos con VxVM instalado. Asegrese de que el uso del nmero vxio est disponible para todos los nodos que no tengan VxVM instalado. Si el nmero vxio ya se est utilizando en un nodo que no tiene VxVM instalado, libere el nmero en ese nodo. Cambie la entrada /etc/name_to_major para utilizar un nmero distinto.

24

(Opcional) Si desea utilizar la reconfiguracin dinmica en un servidor Sun Enterprise 10000 agregue la entrada que aparece a continuacin al archivo /etc/system de cada nodo del clster.
set kernel_cage_enable=1

Esta entrada se aplicar una vez reiniciado el sistema. Consulte Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de reconfiguracin dinmica en una configuracin de Oracle Solaris Cluster. Consulte la documentacin del servidor para obtener ms informacin sobre la reconfiguracin dinmica.
25

Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para NFS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs

El cambio realizado en el archivo /etc/system se aplicar en el siguiente reinicio del sistema.

Captulo 3 Establecimien to del cls ter global

121

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de

alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.

Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.

Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
26

Si va a utilizar uno de los adaptadores que se especifican a continuacin para la interconexin de clster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
Adaptador Entrada

ce ipge ixge

set ce:ce_taskq_disable=1 establecer establecer ipge:ipge_taskq_disable=1 ixge:ixge_taskq_disable=1

Esta entrada se aplicar una vez reiniciado el sistema.


27

x86: Establezca el archivo de inicio predeterminado. La configuracin de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesin.
grub edit> kernel /platform/i86pc/multiboot kmdb

28

Si ha llevado a cabo una tarea que requiere un reinicio del clster, siga los pasos que se describen ms abajo para hacerlo. Estas son algunas de las tareas que requieren un reinicio:

la adicin de un nodo nuevo a un clster existente la instalacin de parches que requieren un reinicio del nodo o del clster

122

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

la realizacin de cambios en la configuracin que requieren un reinicio para surtir efecto.

a. Convirtase en superusuario en un nodo. b. Cierre el clster.


phys-schost-1# cluster shutdown -y -g0 clustername

Nota No reinicie el primer nodo instalado en el clster hasta despus de que el clster se

haya cerrado. Hasta que se inhabilite el modo de instalacin del clster, slo el primer nodo instalado (el que estableci el clster) cuenta con un voto del qurum. Si un clster establecido que est an en el modo de instalacin no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del clster no pueden obtener qurum. En tal caso, el clster completo se cerrara. Los nodos del clster permanecen en el modo de instalacin hasta que ejecute por primera vez el comando clsetup . Este comando se ejecuta durante el procedimiento Cmo configurar dispositivos del qurum en la pgina 149. c. Reinicie todos los nodos del clster.

E n sistemas basados en SPA R C ,haga lo siguiente:


ok boot

E n sistemas basados en x86, haga lo siguiente: Cuando aparezca el men GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |

Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . La utilidad scinstall instala y configura todos los nodos del clster y reinicia el clster. El clster se establecer cuando todos los nodos se hayan iniciado satisfactoriamente en l. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
Captulo 3 Establecimien to del cls ter global 123

Establecimien to de un nuevo clster global o de un nuevo nodo de clster global

29

(Opcional) Si no ha llevado a cabo el Paso 28 para reiniciar los nodos, inicie el servidor web de Oracle Java Web Console manualmente en cada nodo.
phys-schost# smcwebserver start

Para obtener ms informacin, consulte la pgina de comando man smcwebserver(1M).


30

Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status

La salida presenta un aspecto similar al siguiente.


=== Cluster Nodes === --- Node Status --Node N am e --------phys-schost-1 phys-schost-2 phys-schost-3 Status -----Online Online Online

Para obtener ms informacin, consulte la pgina de comando man clnode (1CL).


31

(Opcional) Habilite en cada nodo el reinicio automtico del mismo en caso de que de todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled

-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . Pasos siguientes node enabled

Si ha agregado un nodo a un clster de dos nodos, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya al siguiente procedimiento que corresponda:

124

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Si ha instalado un nodo de varios clsteres y ha decidido configurar el qurum automticamente, la configuracin posterior a la instalacin finaliza aqu. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster de varios nodos y ha rechazado la configuracin automtica del qurum, lleve a cabo la configuracin posterior a la instalacin. Vaya a Cmo configurar dispositivos del qurum en la pgina 149. Si ha agregado un nodo nuevo a un clster existente que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. Si ha agregado un nodo nuevo a un clster existente que no utiliza un dispositivo del qurum, compruebe el estado del clster. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster con un nico nodo, ya se ha completado el establecimiento del clster. Vaya a Creacin de sistemas de archivos del clster en la pgina 217 para instalar el software de administracin de volmenes y configurar el clster.

Errores ms frecuentes

Opcin scinstall inhabilitada: si la opcin JumpStart del comando scinstall no presenta un asterisco delante significa que est inhabilitada. Esta condicin indica que la configuracin de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situacin, en primer lugar salga de la utilidad scinstall . Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuracin de JumpStart y, a continuacin, reinicie la utilidad scinstall .

Cmo preparar el clster para nodos de clster global adicionales


Realice este procedimiento en los nodos de clster global existentes con el fin de preparar el clster para la adicin de nodos nuevos.

Antes de empezar

Realice las siguientes tareas:

Asegrese de que todo el hardware necesario est instalado.

Asegrese de que el adaptador de host est instalado en el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual. Verifique que todas las interconexiones del clster sean compatibles con el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual. Asegrese de que los sistemas de almacenamiento adicional estn instalados. Consulte

el manual que correspo nda de la Colecci n de administr acin del hardware de Oracle Solaris Cluster 3.3.

Si utiliza Cluster Control Panel (CC P),actualice los archivos de configuracin en la consola de administracin. a. Aada el nombre del nodo que va a agregar a la entrada del clster en el archivo /etc/clusters . b. Agregue a los archivos /etc/serialports una entrada con el nombre del nodo nuevo, el nombre de host del dispositivo de acceso a la consola del nodo y el nmero de puerto.

Agregue el nombre del nodo nuevo a la lista de nodos autorizados del clster. a. Convirtase en superusuario en cualquier nodo. b. Inicie la utilidad clsetup .
phys-schost# clsetup

Aparece el men principal. c. Seleccione el elemento de men Nuevos nodos. d. Seleccione el elemento de men Especificarel nombre de una mquina que tiene permiso para agregarse a s misma. e. Siga las indicaciones para agregar el nombre del nodo a la lista de equipos conocidos. La utilidad clsetup muestra el mensaje Com ando completado satisfactoriamente la tarea se ha completado sin errores. f. Salga de la utilidad clsetup .
3

si

Si va a agregar un nodo a un clster de un solo nodo, asegrese de que existan dos interconexiones de clster comprobando la configuracin de interconexin.
phys-schost# clinterconnect show

Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.

S i aparece informacin de la configuracin de dos cables o adaptadores en la salida, contine con el Paso 4. S i no aparece informacin de configuracin de cables ni de adaptadores, o aparece informacin de la configuracin de solo un cable o adaptador, configure nuevas interconexiones del clster. a. Inicie la utilidad clsetup en un nodo.
phys-schost# clsetup

b. Seleccione el elemento de men Interconexin del clster. c. Seleccione el elemento de men Agregar un cable de transporte. Siga las instrucciones para especificarel nombre del nodo que se va a agregar al clster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte. d. Si fuera necesario, repita el Paso c para configurar una segunda interconexin del clster. e. Cuando termine, salga de la utilidad clsetup . f. Verifique que el clster tenga ya dos interconexiones del clster configuradas.
phys-schost# clinterconnect show

La salida del comando debera mostrar informacin de la configuracin de al menos dos interconexiones del clster.
4

Asegrese de que la configuracin de la red privada admita los nodos y las redes privadas que va a agregar. a. Haga que se muestre el nmero mximo de nodos, de redes privadas y as como de clsteres de zona admitido por la configuracin de red privada actual.
phys-schost# cluster show-netprops

La salida presenta un aspecto similar al siguiente:


=== Private Network === private_netaddr: private_netmask: max_nodes: max_privatenets: max_zoneclusters: 172.16.0.0 255.255.240.0 64 10 12

b. Determine si la configuracin de red privada actual puede admitir el nuevo nmero de nodos, incluidas las zonas no globales y las redes privadas.

S i el intervalo de direcciones IP actual es suficiente, ya est listo para instalar el nuevo nodo. Vaya a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134. S i el intervalo de direcciones IP actual no es suficiente, vuelva a configurar el intervalo de direcciones IP privadas. Vaya a Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128. Debe cerrar el clster para cambiar el intervalo de direcciones

IP privadas. Esto incluye la conmutacin fuera de lnea de los grupos de recursos, la

inhabilitacin de todos los recursos del clster y, por ltimo, el reinicio en el modo sin clster antes de reconfigurar el intervalo de direcciones IP.
Pasos siguientes

Configure el software Oracle Solaris Cluster en los nuevos nodos del clster. Vaya a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 o a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142.

Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas


Realice esta tarea para cambiar el intervalo de direcciones IP privadas del clster global con el fin de admitir un incremento en uno o varios de los siguientes componentes de clster:

el nmero de nodos o de zonas no globales el nmero mnimo de redes privadas El nmero de clsteres de zona

Tambin puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.
Nota Para llevar a cabo este procedimiento es necesario cerrar todo el clster. Si necesita

cambiar nicamente la mscara de red para, por ejemplo, proporcionar compatibilidad con los clsteres de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del clster global que se est ejecutando en el modo de clster para especificar el nmero de clsteres de zona programado:
phys-schost# cluster set-netprops num_zoneclusters=N

Este comando no requiere que se cierre el clster.


Antes de empezar 1 2

Asegrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario est habilitado para todos los nodos del clster. Convirtase en superusuario en un nodo de clster. Inicie la utilidad clsetup en un nodo.
# clsetup

Aparecer el men principal de clsetup .

Establezca fuera de lnea cada grupo de recursos. Si el nodo contiene zonas no globales, todos los grupos de recursos de las zonas se establecern fuera de lnea. a. Escriba el nmero correspondiente a la opcin Grupos de recursos y pulse la tecla Intro. Aparece el men de grupos de recursos. b. Escriba el nmero correspondiente a la opcin Poner en lnea/fuera de lnea o conmutar un grupo de recursos y pulse la tecla Intro. c. Siga las indicaciones para establecer todos los grupos de recursos fuera de lnea y en el estado no administrado. d. Cuando todos los grupos de recursos estn fuera de lnea, escriba q para volver al men de grupo de recursos.

Inhabilite todos los recursos del clster. a. Escriba el nmero correspondiente a la opcin Habilitar/inhabilitar un recurso y pulse la tecla Intro. b. Seleccione un recurso para inhabilitarlo y siga las indicaciones. c. Repita el paso anterior para cada recurso que desee inhabilitar. d. Cuando se hayan inhabilitado todos los grupos de recursos, escriba q para volver al men de grupo de recursos.

5 6

Salga de la utilidad clsetup . Asegrese de que todos los recursos de todos los nodos se encuentren Fuera de lnea y de que todos los grupos de recursos presenten el estado N o administrado.
# cluster status -t resource,resourcegroup

-t recurso resourcegroup
7

Limita la salida al objeto de clster especificado. Especifica los recursos. Especifica los grupos de recursos.

Cierre el clster desde un nodo.


# cluster shutdown -g0 -y

-g

Especificael tiempo de espera en segundos.

-y

Impide que se emita la solicitud de confirmacin del cierre.

Inicie cada nodo en el modo sin clster.

E n sistemas basados en SPA R C ,ejecute el siguiente comando:


ok boot -x

E n sistemas basados en x86, ejecute los siguientes comandos: a. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |

Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . b. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu. | | |

c. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time ex its. ] grub edit> kernel /platform/i86pc/multiboot -x

d. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.| | |

e. Escribab para iniciar el nodo en el modo sin clster.


Nota Este cambio en el comando del parmetro de inicio del ncleo no se conserva

tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo.
9

Inicie la utilidad clsetup desde un nodo. Cuando se ejecuta en un modo que no sea de clster, la utilidad clsetup muestra el men principal para operaciones de un modo que no sea de clster. Escriba el nmero correspondiente a la opcin de cambiar el rango de direcciones IP y pulse la tecla Intro. La utilidad clsetup muestra la configuracin de red privada actual; a continuacin, pregunta si desea modificar esta configuracin. Para cambiar la direccin IP de red privada o el intervalo de direcciones de red IP, escriba yes y pulse la tecla Intro. La utilidad clsetup muestra la direccin IP de red privada, 172.16.0.0 y pregunta si desea aceptarla de forma predeterminada. Cambie o acepte la direccin IP de red privada.

10

11

12

Para aceptar la direccin IP de red privada predeterminada y cambiar el rango de direcciones IP, escriba yes y pulse la tecla Intro. La utilidad clsetup pregunta si desea aceptar la mscara de red predeterminada. Vaya al siguiente paso para escribir su respuesta.

Para cambiar la direccin IP de red privada predeterminada, siga los subpasos descritos a continuacin. a. Escribano como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar la direccin predeterminada; a continuacin, pulse la tecla Intro. La utilidad clsetup solicita la nueva direccin IP de red privada. b. Escriba la direccin IP nueva y pulse la tecla Intro. La utilidad clsetup muestra la mscara de red predeterminada; a continuacin, pregunta si desea aceptar la mscara de red predeterminada.

Modifique o acepte el rango de direcciones IP de red privada predeterminado. La mscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un mximo de 64 nodos, 12 clsteres de zona y 10 redes privadas en el clster.
13

Para aceptar el rango de direcciones IP predeterminado, escriba yes y pulse la tecla Intro. A continuacin, vaya al siguiente paso. Para cambiar el rango de direcciones IP, realice los subpasos siguientes. a. Escribano como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar el rango de direcciones predeterminado; a continuacin, pulse la tecla Intro. Si rechaza la mscara de red predeterminada, la utilidad clsetup solicita el nmero de nodos, redes privadas y clsteres de zona que tiene previsto configurar en el clster. b. Especifique el nmero de nodos, redes privadas y clsteres de zona que tiene previsto configurar en el clster. A partir de estas cantidades, la utilidad clsetup calcula dos mscaras de red como propuesta:

La primera mscara de red es la mnima para admitir el nmero de nodos, redes privadas y clsteres de zona que haya especificado. La segunda mscara de red admite el doble de nodos, redes privadas y clsteres de zona que haya especificado para asumir un posible crecimiento en el futuro.

c. Especifique una de las mscaras de red, u otra diferente, que admita el nmero previsto de nodos, redes privadas y clsteres de zona.
14

Escriba yes como respuesta a la pregunta de la utilidad clsetup sobre si desea continuar con la actualizacin.

15 16

Cuando haya finalizado, salga de la utilidad clsetup . Vuelva a reiniciar cada nodo en el clster. a. Cierre todos los nodos.
# shutdown -g0 -y

b. Inicie cada nodo en el modo de clster.

E n sistemas basados en SPA R C ,haga lo siguiente:


ok boot

E n sistemas basados en x86, haga lo siguiente: Cuando aparezca el men GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |

Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration .
17

Inicie la utilidad clsetup en un nodo.


# clsetup

Aparecer el men principal de clsetup .


18

Vuelva a habilitar todos los recursos inhabilitados. a. Escriba el nmero correspondiente a la opcin Grupos de recursos y pulse la tecla Intro. Aparece el men de grupos de recursos. b. Escriba el nmero correspondiente a la opcin Habilitar/inhabilitar un recurso y pulse la tecla Intro. c. Seleccione un recurso para habilitarlo y siga las indicaciones. d. Repita el procedimiento para cada recurso inhabilitado.

e. Cuando se hayan habilitado de nuevo todos los grupos de recursos, escriba q para volver al men de grupo de recursos.
19

Vuelva a colocar en lnea cada grupo de recursos. Si el nodo contiene zonas no globales, establezca tambin en lnea los grupos de recursos que se encuentren en esas zonas. a. Escriba el nmero correspondiente a la opcin Poner en lnea/fuera de lnea o conmutar un grupo de recursos y pulse la tecla Intro. b. Siga las indicaciones para establecer el grupo de recursos en el estado administrado y, a continuacin, pngalo en lnea.

20

Salga de la utilidad clsetup cuando todos los grupos de recursos vuelvan a estar en lnea. Escriba q para salir de cada submen o pulse Ctrl-C. Para agregar un nodo a un clster existente, utilice uno de los siguientes procedimientos:

Pasos siguientes

Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142

Para crear una zona no global en un nodo de clster, consulte Configuracin de una zona no global en un nodo del clster global en la pgina 223.

Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall )
Realice este procedimiento para agregar un nodo nuevo a un clster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.

Nota En este procedimiento, se utiliza el formato interactivo del programa scinstall

. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalacin, consulte la pgina de comando man scinstall (1M). Asegrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall . Para obtener informacin sobre cmo ejecutar el programa installer de desde una secuencia de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar

Realice las siguientes tareas:

Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.

SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en el nodo. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Asegrese de que el clster est preparado para la adicin del nuevo nodo. Consulte Cmo preparar el clster para nodos de clster global adicionales en la pgina 125. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado

Conmutadores de transporte de clster

switch1 y switch2

Nombre del sistema de archivos de los dispositivos globales

/globaldevices (es necesaria una entrada en /etc/vfstab para montar /globaldevices )

Rellene una de las hojas de trabajo para la planificacin de la configuracin de las que aparecen ms abajo. Puede obtener directrices para la planificacin en Planificacin del sistema operativo Oracle Solaris en la pgina 16 y Planificacin del entorno de Oracle Solaris Cluster en la pgina 26.

Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Respuesta

Componen te

Descripcin/Ejemplo

Nodo patrocinador

Cul es el nombre del nodo patrocinador? Elija un nodo activo del clster.

Nombre del clster Comprobacin Descubrimiento automtico de transporte del clster Cables punto a punto

Cmo se llama el clster al que desea unir el nodo? Desea ejecutar la utilidad de validacin cluster check? Desea utilizar el descubrimiento automtico para configurar el transporte del clster? En caso negativo, proporcione la siguiente informacin adicional: El nodo que va a agregar al clster lo convierte en un clster de dos nodos? Utiliza conmutadores el clster? S | No S | No S | No S | No Primero Primero Nombres de los adaptadores de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Desea utilizar el nombre de puerto predeterminado para los conmutadores de transporte? En caso negativo, cul es el nombre de puerto que desea utilizar? S | No S | No Segundo Segundo

Conmutadores de clster Cables y adaptadores para el transporte del clster

En caso de que s se utilicen, como se llaman los dos conmutadores? Valores predeterminados: switch1 y switch2

Reinicio automtico

Desea que scinstall

reinicie automticamente el nodo tras la instalacin?

S | No

Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.

Componen te

Descripcin/Ejemplo

Respuesta

Nodo patrocinador

Cul es el nombre del nodo patrocinador? Elija un nodo activo del clster.

Nombre del clster Comprobacin Descubrimiento automtico de transporte del clster Cables punto a punto

Cmo se llama el clster al que desea unir el nodo? Desea ejecutar la utilidad de validacin cluster check? Desea utilizar el descubrimiento automtico para configurar el transporte del clster? En caso negativo, proporcione la siguiente informacin adicional: El nodo que va a agregar al clster lo convierte en un clster de dos nodos? Utiliza conmutadores el clster? S | No S | No

S | No S | No Primero Primero Segundo Segundo

Conmutadores de clster Cables y adaptadores para el transporte del clster

Nombre del conmutador de transporte, si se utiliza uno: Valores predeterminados: switch1 y switch2

Nombre del adaptador de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? S | No S | No

Sistema de archivos de dispositivos globales Reinicio automtico

Cmo se llama el sistema de archivos de dispositivos globales? Valor predeterminado: /globaldevices Desea que scinstall reinicie automticamente el nodo tras la instalacin? S | No

Siga estas directrices para usar la utilidad scinstall

interactiva en este procedimiento:

La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.

Convirtase en superusuario en el nodo de clster que va a configurar.

Inicie la utilidad scinstall .


phys-schost-new# /usr/cluster/bin/scinstall

Aparecer el men principal de scinstall .


3

Escriba el nmero correspondiente a la opcin Create a New Cluster or Add a Cluster Node (Crear un clster o agregar un nodo de clster) y pulse la tecla Intro.
*** Main Menu *** Please select * 1) 2) 3) 4) * 5) from one of the following (*) options: server

Create a new cluster or add a cluster node Configure a cluster to be JumpStarted from this install Manage a dual-partition upgrade Upgrade this cluster node Print release information for this cluster node

* ?) Help with menu options * q) Quit Option: 1

Aparece el men Nuevo clster o nodo del clster.


4

Escriba el nmero correspondiente a la opcin Agregar esta mquina como nodo de un clster existente y pulse la tecla Intro. Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. La utilidad scinstall configura el nodo y lo inicia en el clster. Extraiga el D VD-R O Mde la unidad de D VD-R OM . a. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. b. Expulse el D VD-R O M .
phys-schost# eject cdrom

Repita este procedimiento en el resto de los nodos que vaya a agregar al clster hasta que todos los nodos adicionales estn configurados por completo. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default

Evite que se unan al clster otros nodos desde un miembro activo del clster.
phys-schost# claccess deny-all

Tambin puede usar la utilidad clsetup . Consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos.
10

Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status

La salida presenta un aspecto similar al siguiente.


=== Cluster Nodes === --- Node Status --Node N am e --------phys-schost-1 phys-schost-2 phys-schost-3 Status -----Online Online Online

Para obtener ms informacin, consulte la pgina de comando man clnode (1CL).


11

Compruebe que todos los parches necesarios estn instalados.


phys-schost# showrev -p

12

(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled

-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . node enabled

13

Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para N FS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs

El cambio realizado en el archivo /etc/system se aplicar en el siguiente reinicio del sistema.


Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de

alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.

Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.

Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
Ejemplo 33

Configuracindel software Oracle Solaris Cluster en un nodo adicional


En el siguiente ejemplo se muestra el nodo phys-schost-3 , que se ha agregado al clster schost . El nodo patrocinador es phys-schost-1 .

*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 P S T 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices Adding Adding Adding Adding Adding file system . . . done

node "phys-schost-3 " to the cluster configuration . . . done adapter "qfe2" to the cluster configuration . . . done adapter "qfe3" to the cluster configuration . . . done cable to the cluster configuration . . . done cable to the cluster configuration . . . done

Copying the config from "phys-schost-1 " . . . done Copying the postconfig file from "phys-schost-1 " if it ex ists . . . done Copying the C o m m o n Agent Container keys from "phys-schost-1 " . . . done Setting the node ID for "phys-schost-3 " . . . done (id=1) Setting the major number for the "did" driver . . . Obtaining the major number for the "did" driver from "phys-schost-1 " . . . done "did" driver major number set to 300 Checking for global devices Updating vfstab . . . done global file system . . . done

Verifying that N T P is configured . . . done Initializing N T P configuration . . . done Updating nsswitch.conf done Adding clusternode . . . to /etc/inet/hosts . . . done

entries

Configuring IP Multipathing groups in "/etc/hostname.<adapter> " files Updating "/etc/hostname.hme0 ". Verifying that power management is N O T configured . . . done Ensure that the E E P R O M parameter "local-mac-address? " is set to "true " . . . done The "local-mac-address? " parameter setting has been changed to "true ". Ensure network routing is disabled . . . done Updating file ("ntp.conf.cluster ") on node phys-schost-1 Updating file ("hosts ") on node phys-schost-1 . . . done Rebooting . . . Errores ms frecuentes . . . done

Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Si ha agregado un nodo a un clster existente que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Pasos siguientes

Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (X M L )
Lleve a cabo este procedimiento para configurar un nuevo nodo del clster mediante un archivo XML de configuracin del clster. El nodo nuevo puede ser un reflejo de un nodo de clster existente que ejecute el software Oracle Solaris Cluster 3.3. Mediante este procedimiento, se configuran los siguientes componentes del nodo:

Pertenencia de nodos del clster Interconexin del clster Dispositivos globales

Antes de empezar

Realice las siguientes tareas:

Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.

SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software Oracle Solaris Cluster y los parches necesarios estn instalados en el nodo. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Asegrese de que el clster est preparado para la adicin del nuevo nodo. Consulte Cmo preparar el clster para nodos de clster global adicionales en la pgina 125.

Asegrese de que el software Oracle Solaris Cluster no est configurado an en el nodo potencial que desee agregar a un clster. a. Convirtase en superusuario en el nodo potencial.

b. Compruebe si el software Oracle Solaris Cluster est configurado en el nodo potencial.


phys-schost-new# /usr/sbin/clinfo

-n

S i el comando presenta errores, vaya al Paso 2. El software Oracle Solaris Cluster an no se ha configurado en el nodo. Puede agregar el nodo potencial al clster. S i el comando devuelve un nmero de ID de nodo, vaya al Paso c. El software Oracle Solaris Cluster ya est configurado en el nodo. Para poder agregar el nodo a un clster distinto, debe suprimir la informacin de configuracin del clster existente.

c. Arranque el nodo potencial en el modo sin clster.

E n sistemas basados en SPA R C ,ejecute el siguiente comando:


ok boot -x

E n sistemas basados en x86, ejecute los siguientes comandos: i. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |

Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . ii. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ | | |

Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the

boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.

iii. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time ex its. ] grub edit> kernel /platform/i86pc/multiboot -x

iv. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.| | |

v. Escriba b para iniciar el nodo en el modo sin clster.


Nota Este cambio en el comando del parmetro de inicio del ncleo no se

conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo. d. Anule la configuracin del software Oracle Solaris Cluster del nodo potencial.
phys-schost-new# /usr/cluster/bin/clnode 2 remove

Si va a crear reflejos de un nodo que ejecuta el software Oracle Solaris Cluster 3.3, cree un archivo X M Lde configuracin del clster. a. Convirtase en superusuario en el nodo del clster que desee reflejar. b. Exporte la informacin de configuracin del nodo existente a un archivo.
phys-schost# clnode export -o clconfigfile

-o Especificael destino de salida.

clconfigfile Nombre del archivo XML de configuracin del clster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando crear. Para obtener ms informacin, consulte la pgina de comando man clnode (1CL). c. Copie el archivo X M Lde configuracin del clster en el nodo potencial que va a configurar como nodo nuevo del clster.
3 4

Convirtase en superusuario en el nodo potencial. Modifique el archivo X M Lde configuracin del clster segn sea necesario. a. Abra el archivo X M Lde configuracin del clster para editarlo.

Si va a crear reflejos de un nodo de clster existente, abra el archivo que cre con el comando clnode export. S i no va a crear reflejos de un nodo de clster existente, cree un archivo nuevo. Base el archivo en la jerarqua de elementos que se muestra en la pgina de comando man clconfiguration (5CL). Puede almacenar el archivo en cualquier directorio.

b. Modifique los valores de los elementos X M Lpara reflejar la configuracin de nodo que desea crear. Consulte la pgina de comando man clconfiguration(5CL) para obtener informacin detallada sobre la estructura y el contenido del archivo XML de configuracin del clster.
5

Valide el archivo X M Lde configuracin del clster.


phys-schost-new# xmllint --valid --noout clconfigfile

Configure el nuevo nodo del clster.


phys-schost-new# clnode add -n sponsornode -i clconfigfile

-n nodo_patrocinador Especificael nombre de un miembro del clster existente para que acte como patrocinador del nodo nuevo. -i clconfigfile Especificael nombre del archivo XML de configuracin del clster que se va a utilizar como fuente de entrada.

(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled

-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . Errores ms frecuentes node enabled

Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Si ha agregado un nodo a un clster que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Pasos siguientes

Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global
Si ha agregado un nodo a un clster global, debe actualizar la informacin de configuracin de los dispositivos del qurum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de qurum o una combinacin de estos elementos. Para ello, quite todos los dispositivos del qurum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del qurum que todava desea utilizar. As, se registra el nodo nuevo con cada dispositivo del qurum, lo que permite

recalcular el recuento de votos basndose en el nuevo nmero de nodos del clster.

Los nuevos dispositivos SCSI del qurum que se configuren se establecern en las reservas SCSI-3.
Antes de empezar 1 2

Asegrese de haber completado la instalacin del software Oracle Solaris Cluster en el nodo que ha agregado. Convirtase en superusuario en un nodo de clster. Asegrese de que todos los nodos del clster estn en lnea.
phys-schost# cluster status -t node

Vea la configuracin de qurum actual. La salida del comando muestra todos los dispositivos del qurum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del qurum SCSI actual, d3.
4 5 phys-schost# clquorum lis t d3 . . .

Anote el nombre de los dispositivos del qurum que aparecen en la lista. Quite el dispositivo del qurum original. Lleve a cabo este paso con todos los dispositivos del qurum configurados.
phys-schost# clquorum remove devicename

nombre_dispositivo Especificael nombre del dispositivo del qurum. Compruebe que todos los dispositivos del qurum originales se hayan suprimido. Si los dispositivos del qurum se han borrado correctamente, ninguno de ellos aparece en la lista.
phys-schost# clquorum status

Actualice el espacio de nombres de dispositivos globales.


phys-schost# cldevice populate 8 Nota Este paso es necesario para prevenir un posible error grave del nodo.

Compruebe en cada nodo que el comando cldevice populate haya finalizado su proceso antes de intentar agregar un dispositivo del qurum. El comando cldevice populate se ejecuta de forma remota en todos los nodos, a pesar de que se emite desde un solo nodo. Para determinar si ha concluido el procesamiento del comando cldevice populat e, ejecute el comando siguiente en todos los nodos del clster.

phys-schost# ps -ef | grep scgdevs

(Opcional) Agregue un dispositivo del qurum. Puede configurar el mismo dispositivo que se utiliz originalmente como dispositivo del qurum o seleccionar un nuevo dispositivo compartido para configurarlo. a. (Opcional) Si desea seleccionar un nuevo dispositivo compartido para configurarlo como dispositivo del qurum, visualice todos los dispositivos que el sistema comprueba. De lo contrario, vaya al Paso c.
phys-schost# cldevice list -v

La salida es similar a la siguiente:


D ID Device ---------d1 d2 d3 d3 . . . Full Device Path ---------------phys-schost-1:/dev/rdsk/c0t0d0 phys-schost-1:/dev/rdsk/c0t6d0 phys-schost-2:/dev/rdsk/c1t1d0 phys-schost-1:/dev/rdsk/c1t1d0

b. Desde la salida, seleccione un dispositivo compartido para configurarlo como dispositivo del qurum. c. Configure el dispositivo compartido como dispositivo del qurum.
phys-schost# clquorum add -t type devicename

-t tipo Especificael tipo de dispositivo del qurum. Si no se especifica esta opcin, se utilizar el tipo predeterminado, es decir, shared_disk . d. Repita este procedimiento con todos los dispositivos del qurum que desee configurar. e. Verifique la nueva configuracin del qurum.
phys-schost# clquorum lis t Ejemplo 34

La salida debe mostrar todos los dispositivos del qurum y todos los nodos.

Actualizacinde los dispositi vos del qurum S C S Itras agregar un nodo a un clster de dos nodos
En el siguiente ejemplo se identifica el dispositivo del qurum SCSI original d2, se quita ese dispositivo del qurum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo del qurum SCSI y se verifica el nuevo dispositivo.
phys-schost# clquorum list

d2 phys-schost-1

phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status . . . --- Quorum Votes by Device --Device N am e ----------phys-schost# D ID Device ---------. . . d3 d3 . . . phys-schost# phys-schost# phys-schost# phys-schost# d3 phys-schost-1 phys-schost-2 Pasos siguientes Present ------Possible -------Status ------

cldevice list -v Full Device Path ---------------phys-schost-2:/dev/rdsk/c1t1d0 phys-schost-1:/dev/rdsk/c1t1d0 cldevice populate ps -ef - grep scgdevs clquorum add d3 clquorum list

Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Cmo configurar dispositi vos del qurum


Nota No es necesario que configure los dispositivos del qurum si se da alguna de las

siguientes circunstancias:

Ha elegido la configuracin automtica del qurum durante la configuracin del software Oracle Solaris Cluster. Ha instalado un clster de un solo nodo. Ha agregado un nodo a un clster global existente y ya dispone de un nmero suficiente de votos del qurum asignados.

En estos casos, pase a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.

Antes de empezar
Captulo 3 Establecimien to del cls ter global 149

150

Re ali ce est e pr oc ed im ie nt o un a so la ve z cu an do el cl s ter nu ev o se ha ya fo r m ad o co m pl et a m en te. Ut ili ce es

te procedimiento para asignar los votos del qurum y, a continuacin, para quitar el clster del modo de instalacin.

Lleve a cabo los siguientes pasos para configurar un servidor de qurum o un dispositivo NAS como dispositivo del qurum.

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Servidores del qurum: para configurar un servidor de qurum como dispositivo del qurum, haga lo siguiente:

Instale el software Servidor de qurum en la mquina de host del servidor de qurum e inicie este ltimo. Para obtener informacin acerca de la instalacin y el inicio del servidor de qurum, consulte Instalacin y configuracin del software Servidor de qurum en la pgina 64. Compruebe que los conmutadores de red conectados directamente con los nodos del clster cumplan uno de los criterios siguientes:

El conmutador es compatible con el protocolo RSTP. El conmutador tiene habilitado el modo de puerto rpido.

Se necesita una de estas funciones para que la comunicacin entre los nodos del clster y el servidor de qurum sea inmediata. Si el conmutador retrasa esta comunicacin significativamente, el clster lo interpreta como la prdida del dispositivo del qurum.

Debe disponer de la siguiente informacin:


un nombre para asignarlo al dispositivo del qurum configurado la direccin IP de la mquina de host del servidor de qurum el nmero de puerto del servidor de qurum.

Dispositivos NAS: para configurar un dispositivo de almacenamiento conectado a red (NAS) como dispositivo del qurum, haga lo siguiente:

Instale el hardware y el software del dispositivo NAS. Consulte Oracle Solaris Cluster 3.3 With Network-Attached StorageDevices Manual y la documentacin del dispositivo para conocer los requisitos y los procedimientos de instalacin del hardware y el software de NAS. En el caso de dispositivos NAS de Network Appliance, deber disponer tambin de la siguiente informacin:

el nombre del dispositivo NAS el ID de LUN del dispositivo NAS

Si se dan las dos condiciones que aparecen a continuacin, modifique las entradas de archivo de la mscara de red de la red pblica en cada nodo del clster.

Pretende utilizar un servidor de qurum. La red pblica utiliza la mscara de subred de longitud variable, tambin llamada enrutamiento de interdominios sin clases (CIDR).

Si utiliza un servidor de qurum, pero la red pblica utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso. a. Agregue una entrada para cada subred pblica utilizada por el clster al archivo /etc/inet/netmasks . La siguiente entrada de ejemplo contiene una mscara de red y una direccin IP de red pblica:
10.11.30.0 255.255.255.0

b. Anexe netmask+ broadcast + a la entrada del nombre de host de cada archivo /etc/hostname. adaptador.
nodename netmask + broadcast + 2 3

Convirtase en superusuario en un nodo. Asegrese de que todos los nodos del clster estn en lnea.
phys-schost# cluster status -t node

Para utilizar un disco compartido como dispositivo del qurum, verifique la conectividad del dispositivo a los nodos del clster y elija el dispositivo que desea configurar. a. Visualice una lista de todos los dispositivos comprobados por el sistema desde un nodo del clster. No es necesario que inicie sesin como superusuario para ejecutar este comando.
phys-schost-1# cldevice list -v

La salida es similar a la siguiente:


D ID Device ---------d1 d2 d3 d3 . . . Full Device Path ---------------phys-schost-1:/dev/rdsk/c0t0d0 phys-schost-1:/dev/rdsk/c0t6d0 phys-schost-2:/dev/rdsk/c1t1d0 phys-schost-1:/dev/rdsk/c1t1d0

b. Asegrese de que la salida muestre todas las conexiones entre los nodos del clster y los dispositivos de almacenamien to. c. Determine el nombre de ID del dispositivo global de cada disco compartido que est configurando como dispositivo del qurum.

Nota Los discos compartidos que elija deben ser vlidos para su uso como dispositivo

del qurum. Consulte la seccin Dispositivos de qurum en la pgina 41 para obtener ms informacin acerca de la seleccin de dispositivos del qurum. Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que est configurando como dispositivo del qurum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.
5

Si va a utilizar un disco compartido que no es compatible con el protocolo SC SI,asegrese de que el aislamiento para ese disco compartido est inhabilitado. a. Visualice la configuracin de aislamiento del disco individual.
phys-schost# cldevice show device === D ID Device Instances D ID Device Name: . . . default_fencing: . . .

===

/dev/did/rdsk/ dN nofencing

S i el aislamiento del disco se ha establecido en nofencing o nofencing-noscrub, esto significa que est inhabilitado. Vaya al Paso 6. S i el aislamiento del disco se ha establecido en pathcount o scsi , inhabilite este aislamiento. Vaya directamente al Paso c. S i el aislamiento del disco se ha establecido en global, compruebe si el aislamiento est inhabilitado de manera global. Vaya al Paso b. Otra opcin es, simplemente, inhabilitar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing . Vaya directamente al Paso c

b. Compruebe si el aislamiento est inhabilitado de forma global.


phys-schost# cluster show -t global === Cluster === Cluster name: . . . global_fencing: . . .

cluster nofencing

S i el aislamiento global se ha establecido en nofencing o nofencing-noscrub, significa que est inhabilitado para los discos compartidos cuya propiedad default_fencing se haya establecido en global. Vaya al Paso 6.

S i el aislamiento global se ha establecido en pathcount o prefer3, inhabilite el aislamiento para el disco compartido. Vaya al Paso c.

Nota Si la propiedad default_fencing

de un disco individual se ha establecido en global , el aislamiento de ese disco estar inhabilitado siempre que la propiedad global_fencing , que afecta a todo el clster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, ste se habilitar en los discos cuya propiedad default_fencing se haya establecido en global . c. Inhabilite el aislamiento del disco compartido.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device

d. Verifique que el aislamiento del disco compartido est inhabilitado.


phys-schost# cldevice show device 6

Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece la pantalla Configuracin inicial del clster.


Nota Si en lugar de ello aparece el men principal, quiere decir que la configuracin inicial

del clster ya se ha realizado correctamente. Vaya directamente al Paso 11.


7

Responda al mensaje D o you want to add any quorumdisks? (Desea agregar algn disco del qurum?).

S i el clster es de dos nodos, debe configurar al menos un dispositivo del qurum compartido. Escriba S para configurar uno o varios dispositivos del qurum. S i el clster tiene tres o ms nodos, la configuracin del dispositivo del qurum es opcional.

Escriba N o si no desea configurar ningn dispositivo del qurum adicional. En ese caso, vaya directamente al Paso 10. Escriba S para configurar dispositivos del qurum adicionales. A continuacin, vaya al Paso 8.

Especifique el tipo de dispositivo que desea configurar como dispositivo del qurum.
Tipo de dispositivo del qurum Descripcin

shared_disk

Dispositivo NAS de Sun o disco compartido

Tipo de dispositivo del qurum

Descripcin

quorum_server netapp_nas sun_uss

Servidor de qurum Dispositivo NAS de Network Appliance Dispositivo Sun Storage 7000 Unified Storage Systems NAS

Especifique el nombre del archivo que desea configurar como dispositivo del qurum.

En el caso de los servidores del qurum, especifique tambin la siguiente informacin:


la direccin IP del host del servidor de qurum el nmero de puerto que usa el servidor de qurum para comunicarse con los nodos del clster

En el caso de los dispositivos NAS de Network Appliance, especifique adems la siguiente informacin:

el nombre del dispositivo NAS el ID de LUN del dispositivo NAS

10

Responda S al mensaje Reiniciar "installmode" ?. Una vez que la utilidad clsetup haya establecido la configuracin y el nmero de votos del qurum en el clster, aparecer el mensaje Inicializacin del clster completa. La utilidad le lleva de nuevo al men principal. Salga de la utilidad clsetup . Verifique que la configuracin del qurum sea correcta y que el modo de instalacin est inhabilitado. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Proceso de clsetup interrumpido : si el proceso de configuracin del qurum se interrumpiera o no se completara correctamente, vuelva a ejecutar clsetup . Cambios en el recuento de votos del qurum: si ms adelante se incrementa o reduce el nmero de conexiones de nodos con un dispositivo de qurum, el nmero de votos de qurum no se recalcula de forma automtica. Puede volver a establecer el voto del qurum correcto quitando cada uno de los dispositivos del qurum y agregndolos despus nuevamente a la configuracin uno por uno. En el caso de un clster de dos nodos, agregue un nuevo dispositivo del qurum antes de quitar y volver a aadir el dispositivo del qurum original. A continuacin, quite el dispositivo del qurum temporal. Consulte el procedimiento sobre cmo modificar una lista de nodos de un dispositivo del qurum en el Captulo 6, Administracin de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.

11 Pasos siguientes

Errores ms frecuentes

Cmo verificar los modos de configuracin e instalacin del qurum


Lleve a cabo este procedimiento para verificar que la configuracin del qurum se haya completado correctamente, en caso de que lo haya configurado, y que el modo de instalacin del clster est inhabilitado. No es necesario ser superusuario para ejecutar estos comandos.

Desde cualquier nodo de clster global, verifique la configuracin del qurum de los nodos y del clster.
phys-schost% clquorum list

La salida muestra los dispositivos del qurum y los nodos.


2

Desde cualquier nodo, verifique que el modo de instalacin del clster est inhabilitado.
phys-schost% cluster show -t global | grep installmode installmode: disabled

La creacin e instalacin del clster se ha completado.


Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Si desea cambiar algn nombre de host privado, vaya a Cmo cambiar nombres de host privados en la pgina 156. Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuracin de NTP. Vaya a Cmo configurar Network Time Protocol (NTP) en la pgina 164. Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166. Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.

Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de

las siguientes tareas:


Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.

Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias. Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.

Vase tambin

Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.

Cmo cambiar nombres de host privados


Realice esta tarea si no desea utilizar los nombres de host privados predeterminados, clusternode id_nodo-priv , que se asignan durante la instalacin del software Oracle Solaris Cluster.

Nota No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las

aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podran continuar utilizando el nombre de host privado antiguo despus de haber cambiado el mismo, lo que causara conflictos en el nombre de host. Si hubiera alguna aplicacin o algn servicio de datos en ejecucin, detngalos antes de realizar este procedimiento. Realice este procedimiento en un nodo activo del clster.
1 2

Convirtase en superusuario en un nodo del clster global. Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men principal de clsetup .


3

Escriba el nmero correspondiente a la opcin Nombres de host privados y pulse la tecla Intro. Aparece el men Nombres de host privados.

Escriba el nmero correspondiente a la opcin Cambiar un nombre de host privado y pulse la tecla Intro. Siga las instrucciones y responda a los avisos que vayan apareciendo para cambiar el nombre de host privado. Repita este paso con cada nombre de host que desee cambiar.

Verifique los nuevos nombres de host privados.


phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv

Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuracin de NTP. Vaya a Cmo configurar Network Time Protocol (NTP) en la pgina 164. Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166.

Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de

las siguientes tareas:


Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.

Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.

Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.

Configuracin de la distribucin de la carga de grupos entre nodos


La distribucin automtica de carga de grupos de recursos puede habilitarse entre nodos o zonas mediante el establecimiento de lmites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los lmites de carga de los nodos. El funcionamiento predeterminado es distribuir carga de grupos de recursos de forma uniforme entre todos los nodos disponibles. Cada grupo de recursos se inicia en un nodo de la lista de nodos. El Administrador de grupos de recursos (RGM) elige el nodo que satisfaga mejor la directiva de distribucin de carga configurada. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los lmites de carga de

ese nodo.

Puede configurar lmites de carga en un clster global o en clster de zona. Los factores que se establecen para controlar la distribucin de carga en cada nodo incluyen lmites de carga, prioridad de grupo de recursos y modo preferente. En el clster global, la propiedad Concentrate_load puede establecerse para seleccionar la directiva de distribucin de carga preferida: concentrar la carga de grupos de recursos en el menor nmero posible de nodos sin sobrepasar los lmites, o bien distribuir la carga lo ms uniformemente posible entre todos los nodos disponibles. El comportamiento predeterminado es distribuir la carga de los grupos de recursos. Cada grupo de recursos contina limitado a ejecutarse nicamente en los nodos de su lista de nodos, sea cual sea la configuracin del factor de carga y del lmite de carga.
Nota Para configurar la distribucin de carga de grupos de recursos puede utilizar la lnea

de comandos, la interfaz de Oracle Solaris Cluster Manager o la utilidad clsetup . El procedimiento siguiente explica cmo configurar la distribucin de carga de grupos de recursos mediante la utilidad clsetup . Si desea obtener instrucciones sobre el uso de la lnea de comandos para llevar a cabo estos procedimientos, consulte Configuracin de los lmites de carga de Gua de administracin del sistema de Oracle Solaris Cluster. Esta seccin incluye los procedimientos siguientes:

Cmo configurar lmites de carga de un nodo en la pgina 159 Cmo establecer la prioridad de un grupo de recursos en la pgina 160 Cmo establecer factores de carga de un grupo de recursos en la pgina 161 Cmo establecer el modo preferente de un grupo de recursos en la pgina 162 Cmo concentrar carga en menos nodos del clster en la pgina 163

Cmo configurar lmites de carga de un nodo


Cada nodo del clster o de zona puede tener su propio conjunto de lmites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los lmites de carga de los nodos. Puede definir lmites de carga flexibles (que se pueden sobrepasar) o rgidos (que no se pueden sobrepasar).
1 2

Convirtase en superusuario en un nodo activo del clster. Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men de clsetup .


3

Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

Seleccione el elemento de men Administrar lmites de carga. En pantalla aparece el men Administrar lmites de carga.

6 7

Escriba s y pulse Intro para continuar. Escriba el nmero de opcin correspondiente a la operacin que desea efectuar y pulse Intro. Puede crear, modificar o eliminar un lmite de carga.

Si ha decidido crear un lmite de carga, seleccione el nmero de opcin correspondiente al nodo en el que desea establecer el lmite de carga. Si desea establecer un lmite de carga en un segundo nodo, seleccione el nmero de opcin correspondiente al segundo nodo y pulse Intro. Una vez seleccionados todos los nodos en los que desea configurar lmites de carga, escriba q y pulse Intro.

9 10

Escriba s y pulse Intro para confirmar los nodos que ha seleccionado en el Paso 8. Escriba el nombre del lmite de carga y pulse Intro. Por ejemplo, escribamem_loadcomo nombre de un lmite de carga.

11

Escriba s o no para especificar un valor de lmite flexible y pulse Intro. Si ha escrito s , escriba el valor del lmite flexible y pulse Intro.

12

Escriba s o no para especificar un valor de lmite rgido y pulse Intro. Si ha escrito s , escriba el valor del lmite rgido y pulse Intro.

13 14

Escriba s y pulse Intro para proseguir la creacin del lmite de carga. Escriba s para continuar con la actualizacin y pulse la tecla Intro. Aparece el mensaje Com ando completado satisfactoriament e, junto con los lmites flexible y rgido de carga correspondientes a los nodos seleccionados. Pulse Intro para continuar.

15

Puede modificar o eliminar un lmite de carga mediante los indicadores de la utilidad clsetup . Vuelva al men anterior; para ello, escriba q y pulse Intro.

Cmo establecer la prioridadde un grupo de recursos


Tambin puede configurar un grupo de recursos para que tenga una prioridad superior y reducir as la probabilidad de ser desplazado de un nodo especfico.Si se superan los lmites de carga, los grupos de recursos con prioridad inferior podran quedarse sin conexin.
1

Convirtase en superusuario en un nodo activo del clster.

Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men de clsetup .


3

Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos. Seleccione el elemento de men Establecer prioridad por grupo de recursos. Aparece en pantalla el men Establecer prioridad por grupo de recursos. Escriba s y pulse Intro. Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Se muestra el valor establecido para la prioridad. El valor predeterminado de Prioridad es 500. Escriba el valor nuevo de Prioridad y pulse Intro. Escriba s para confirmar la entrada y pulse Intro. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

6 7

8 9 10

Cmo establecer factores de carga de un grupo de recursos


Un factor de carga es un valor que se asigna a la carga de un lmite de carga. Los factores de carga se asignan a un grupo de recursos y dichos factores de carga se corresponden con la definicin de lmites de carga de los nodos.
1 2

Convirtase en superusuario en un nodo activo del clster. Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men de clsetup .


3

Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

Seleccione el elemento de men Establecer factores de carga por grupo de recursos. Aparece en pantalla el men Establecer factores de carga por grupo de recursos.

6 7 8

Escriba s y pulse la tecla Intro. Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Escriba el factor de carga. Por ejemplo, puede establecer un factor de carga denominado mem_loaden el grupo de recursos seleccionado escribiendo mem_load@50. Pulse Ctrl+D cuando haya terminado.

9 10

Pulse Intro para continuar con la actualizacin. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

Cmo establecer el modo preferente de un grupo de recursos


La propiedad preemption_mode determina si se aplicar el modo preferente a un grupo de recursos de un nodo mediante un grupo de recursos de prioridad superior debido a la sobrecarga de nodos. La propiedad indica el coste de mover un grupo de recursos de un nodo a otro.
1 2

Convirtase en superusuario en un nodo activo del clster. Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men de clsetup .


3

Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster.

Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

Seleccione el elemento de men Establecer modo preferente por grupo de recursos. Aparece en pantalla el men Establecer modo preferente por grupo de recursos.

Escriba s y pulse Intro para continuar.

Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Si el grupo de recursos tiene establecido un modo preferente, se muestra de manera similar a la siguiente:

The preemption mode property of "rg11" is currently 8

set to the following:

preemption mode: Has_Cost

Escriba el nmero de opcin para el modo preferente que desee y pulse Intro. Las tres opciones son Has_cost, No_cost o Never.

9 10

Escriba s para continuar con la actualizacin y pulse la tecla Intro. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.

Cmo concentrar carga en menos nodos del clster


Si la propiedad Concentrate_load se establece en False, el clster distribuye grupos de carga de manera uniforme en todos los nodos disponibles. Si se establece en True, el clster intenta concentrar carga de grupos de recursos en el menor nmero posible de nodos sin sobrepasar los lmites de carga. De forma predeterminada, la propiedad Concentrate_load est establecida en False. La propiedad Concentrate_load slo puede establecerse en un clster global; no en uno de zona. En un clster de zona, el valor predeterminado es siempre False.
1 2

Convirtase en superusuario en un nodo activo del clster. Inicie la utilidad clsetup .


phys-schost# clsetup

Aparece el men de clsetup .


3

Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster.

Seleccione el elemento de men Establecer la propiedad concentrate_load del clster. En pantalla aparece el men Establecer la propiedad Concentrate_load del clster.

Escriba s y pulse la tecla Intro. Se muestra el valor actual: T R U E o bien F A L S .E

6 7

Escriba s para cambiar el valor y pulse Intro. Escriba s para continuar con la actualizacin y pulse la tecla Intro.

Pulse Intro para volver al men anterior. Aparece el men Otras tareas del clster.

Cmo configurar Network Time Protocol (NTP)


Nota Si ha instalado su propio archivo /etc/inet/ntp.conf

antes de instalar el software Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuacin: Realice esta tarea para crear o modificar el archivo de configuracin de NTP despus de llevar a cabo una de las siguientes tareas:

Instalar el software Oracle Solaris Cluster Agregar un nodo a un clster global existente Cambiar el nombre de host privado de un nodo del clster global

Si ha agregado un nodo a un clster de un solo nodo, debe asegurarse de que el archivo de configuracin de NTP que utilice se copie en el nodo de clster original y en el nodo nuevo.
1 2 3

Convirtase en superusuario en un nodo del clster. Si dispone de su propio archivo /etc/inet/ntp.conf , cpielo en cada nodo del clster.

Si no dispone de su propio archivo /etc/inet/ntp.conf para instalarlo, use el archivo /etc/inet/ntp.conf.cluster como archivo de configuracin de N TP.
Nota No cambie el nombre de ntp.conf.cluster

por ntp.conf .

Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalacin del software Oracle Solaris Cluster anterior. El software Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuracin de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. En tal caso, realice las modificaciones que se describen a continuacin en ese archivo ntp.conf . a. Abra el archivo de configuracin de N TPcon el editor de texto que desee en un nodo del clster para modificarlo. b. Asegrese de que exista una entrada para el nombre de host privado de cada nodo del clster. Si ha cambiado el nombre de host privado de cualquier nodo, asegrese de que el archivo

de configuracin de NTP contenga el nuevo nombre de host privado.

c. Realice otras modificaciones necesarias, si las hubiere, para cumplir los requisitos de N TP. d. Copie el archivo de configuracin de N TPen todos los nodos del clster. El contenido del archivo de configuracin de NTP debe ser idntico en todos los nodos del clster.
4

Detenga el daemon de N TPen todos los nodos. Espere a que el comando finalice correctamente en todos los nodos antes de continuar con el Paso 5.
phys-schost# svcadm disable ntp

Reinicie el daemon de N TPen todos los nodos.

Si utiliza el archivo ntp.conf.cluster , ejecute el siguiente comando:


phys-schost# /etc/init.d/xntpd.cluster start

La secuencia de comandos de inicio xntpd.cluster en primer lugar.

busca el archivo /etc/inet/ntp.conf

Si existe el archivo ntp.conf , la secuencia de comandos se cierra inmediatamente sin necesidad de iniciar el daemon de NTP. Si no existe el archivo ntp.conf , pero s el archivo ntp.conf.cluster , la secuencia de comandos inicia el daemon de NTP. En ese caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuracin de NTP.

Si utiliza el archivo ntp.conf, ejecute el comando siguiente:


phys-schost# svcadm enable ntp

Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166. Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.

Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de

las siguientes tareas:


Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.

Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.

Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.

Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster


Puede configurar la arquitectura de seguridad IP (IPsec) de forma que la interfaz clprivnet proporcione una comunicacin TCP/IP segura en la interconexin del clster. Para obtener informacin acerca de IPsec, consulte Parte IV, Seguridad IP de Gua de administracin del sistema:serviciosIP y la pgina de comando man ipsecconf(1M) . Para obtener informacin sobre la interfaz clprivnet , consulte la pgina de comando man clprivnet (7). Realice este procedimiento en todos los nodos de votacin de clster global que desee configurar para que utilicen IPsec.

Convirtase en superusuario.

Determine la direccin IP de la interfaz clprivnet de cada nodo.


phys-schost# ifconfig clprivnet0

Configure, en cada nodo, el archivo de normas /etc/inet/ipsecinit.conf y agregue las asociaciones de seguridad (SA) entre cada par de direcciones IP de interconexiones privadas que desee que utilicen IPsec. Siga las instrucciones que aparecen en la seccin Cmo proteger el trfico entre dos sistemas con IPsec de Gua de administracin del sistema:serviciosIP. Adems, tenga en cuenta las siguientes directrices:

Asegrese de que los valores de los parmetros de configuracin de esas direcciones sean coherentes en todos los nodos asociados. Configure cada directiva como una lnea independiente del archivo de configuracin. Para implementar IPsec sin necesidad de reiniciarlo, siga las instrucciones que encontrar en el ejemplo del procedimiento Proteccin del trfico con IPsec sin necesidad de reiniciar.

Para obtener ms informacin acerca de la norma sa unique, consulte la pgina de comando man ipsecconf (1M). a. Agregue, en todos los archivos, una entrada para cada direccin IP clprivnet del clster para que utilicen IPsec. Incluya la direccin IP clprivnet del nodo local. b. Si utiliza interfaces de red virtuales (V N C I ), agregue tambin una entrada para la direccin IP de cada interfaz fsica utilizada por las V N IC . c. (Opcional) Incluya la directiva sa unique en la entrada para habilitar la segmentacin de datos en todos los vnculos. Esta opcin ayuda al controlador a hacer un uso ptimo del ancho de banda de la red privada del clster, lo que ofrece una alta granularidad de la distribucin y un mayor rendimiento. La interfaz clprivnet utiliza el ndice de parmetros de seguridad (SPI) del paquete para segmentar el trfico.
4

Edite, en cada nodo, el archivo /etc/inet/ike/config para configurar el parmetro p2_idletime_secs . Agregue esta entrada a las reglas de directivas configuradas para los transportes del clster. Esta configuracin establece el tiempo del que disponen las asociaciones de seguridad para volver a generarse cuando se reinicia un nodo del clster y limita el tiempo de un nodo reiniciado para volver a unirse al clster. 30 segundos debera ser un valor adecuado.
phys-schost# vi /etc/inet/ike/config . . . { label "clust-priv-interconnect1-clust-priv-interconnect2"

. . . p2_idletime_secs 30 } . . . Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de

las siguientes tareas:


Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.

Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.

Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.

Cmo registrar los datos de diagnstico de la configuracin del clster


Cuando termine de configurar el clster global y antes de ponerlo en funcionamiento, use la utilidad Sun Explorer para registrar la informacin de lnea de base acerca del clster. Estos datos se pueden utilizar en caso de que se diera una necesidad de solucionar un problema con el clster.

1 2

Convirtase en superusuario. Instale Sun Explo rer, si an no se ha instalado. Oracle Services Tools Bundle contiene los paquetes de Sun Explorer SU N W explo y SU N W explu . Consulte http://www.sun.com/service/stb para obtener informacin sobre la descarga e instalacin de software.

Ejecute la utilidad explorer en todos los nodos del clster. Utilice el comando adecuado para su plataforma:
Servidor Comando

Sun Fire 3800 a 6800 Sun Fire V1280 y E2900 Sun Fire T1000 y T2000 Sun Fire X4x00 y X8x00 Resto de plataformas

# explorer -i -w default,scextended # explorer -i -w default,1280extended # explorer -i -w default,Tx000 # explorer -i -w default,ipmi # explorer -i

Para obtener ms informacin, consulte la pgina de comando man explorer(1M) del directorio /opt/SUNWexplo/man/man1m/ y Oracle Explorer U sers Guide. El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer. id_host.nombre_host-fecha.tar.gz .
4

Guarde los archivos en una ubicacin a la que pueda acceder si el clster quedara inoperativo por completo. Enve todos los archivos explorer por correo electrnico a la direccin de la base de datos de Sun Explorer correspondiente a su ubicacin geogrfica. Esta base de datos pondr la salida de explorer a disposicin de la asistencia tcnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema tcnico del clster.

Ubicacin

Direccin de correo electrnico

Norteamrica, Amrica central y Sudamrica (AMER) Europa, Oriente medio y frica (EMEA) Asia, Australia, Nueva Zelanda y el Pacfico (APAC)

explorer-database-americas@sun.com explorer-database-emea@sun.com explorer-database-apac@sun.com

Configuracindel software Solaris Volume Manager

A P T U L O

Configure los discos locales y los de host mltiple para el software Solaris Volume Manager mediante los procedimientos que se presentan en este captulo y la informacin de planificacin incluida en Planificacin de la administracin de volmenes en la pgina 53. Consulte la documentacin de Solaris Volume Manager para obtener informacin adicional.
Nota El mdulo Enhanced Storage (almacenamiento mejorado) de Solaris Management

Console no es compatible con el software Oracle Solaris Cluster. Utilice la interfaz de lnea de comandos o las utilidades de Oracle Solaris Cluster para configurar el software Solaris Volume Manager. En este captulo se incluyen las siguientes secciones:

Configuracin del software Solaris Volume Manager en la pgina 171 Creacin de conjuntos de discos en un clster en la pgina 184 Configuracin de mediadores de dos cadenas en la pgina 193

Configuracin del software Solaris Volume Manager


En la tabla que aparece a continuacin, se muestran las tareas que se han de llevar a cabo para configurar el software Solaris Volume Manager para un entorno de Oracle Solaris Cluster. Realice los procedimientos en el orden indicado.
TA B L A 41 Tarea

Mapa de tareas: configuracin del software Solaris Volume Manager


Instrucciones

Planifique el diseo de la configuracin de Solaris Volume Manager.

Planificacin de la administracin de volmenes en la pgina 53


171

Configuracindel software Solaris Volume Manager


TA B L A41 Tarea

Mapa de tareas: configuracin del software SolarisVolume Manager


Instrucciones

(Continuacin)

Cree rplicas de base de datos de estado en los discos locales. (Opcional) Cree un reflejo de los sistemas de archivos en el disco raz.

Cmo crear rplicas de la base de datos de estado en la pgina 172 Creacin de reflejos del disco raz en la pgina 173

Cmo crear rplicas de la base de datos de estado


Realice este procedimiento en cada nodo del clster global. Convirtase en superusuario. Cree rplicas de base de datos de estado en uno o varios dispositivos locales para cada nodo del clster. Utilice el nombre fsico (cNtXdY sZ) en lugar del nombre de ID de dispositivo (dN) para especificar los segmentos que se van a utilizar.
phys-schost# metadb -af slice-1 slice-2slice-3 Consejo Para proteger los datos de estado, lo cual resulta necesario para ejecutar el

1 2

software Solaris Volume Manager, cree al menos tres rplicas para cada nodo. Tambin puede incluir rplicas en varios dispositivos para que sirvan de proteccin en caso de que alguno de los dispositivos presente errores. Consulte la pgina de comando man metadb(1M) y la documentacin de Solaris Volume Manager para obtener informacin detallada.
3

Verifique las rplicas.


phys-schost# metadb

El comando metadb muestra la lista de rplicas.


Ejemplo 41

Creacin de rplicas de base de datos de estado


En el siguiente ejemplo, se muestran tres rplicas de base de datos de estado. Cada rplica se crea en un dispositivo distinto.
phys-schost# phys-schost# flags a a a metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 metadb first blk block count u 16 8192 /dev/dsk/c0t0d0s7 u 16 8192 /dev/dsk/c0t1d0s7 u 16 8192 /dev/dsk/c1t0d0s7

172

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Pasos siguientes

Para crear un reflejo de los sistemas de archivos del disco raz, vaya a Creacin de reflejos del disco raz en la pgina 173. Si no desea utilizar esa opcin, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear conjuntos de discos de Solaris Volume Manager.

Creacin de reflejos del disco raz


La creacin de reflejos del disco raz impide que el nodo del clster se cierre en caso de que se produzca un error en el disco del sistema. En el disco raz, pueden existir cuatro tipos de sistemas de archivos. Cada tipo de sistema de archivos se refleja mediante un mtodo distinto. Utilice el procedimiento correspondiente de los que se muestran a continuacin para crear un reflejo de cada tipo de sistema de archivos.

Cmo crear un reflejo del sistema de archivos raz (/) en la pgina 173 Cmo crear reflejos del espacio de nombres de los dispositivos globales en la pgina 176 Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179 Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181

Caution Cuando cree reflejos de discos locales, no utilice la ruta /dev/global

al especificar el nombre del disco. Si especifica esta ruta para cualquier otro elemento que no sea un sistema de archivos del clster, el sistema no se podr iniciar.

Cmo crear un reflejo del sistema de archivos raz (/)


Utilice este procedimiento para reflejar el sistema de archivos raz (/).
Nota Si el espacio de nombres de dispositivos globales se encuentra en un archivo creado

mediante lofi , este procedimiento incluye la creacin de reflejos del espacio de nombres de dichos dispositivos.
1 2

Convirtase en superusuario. Ubique el segmento raz en una concatenacin de un solo segmento (unidireccional). Especifique el nombre de disco fsico del segmento del disco raz (cNtXdY sZ).
phys-schost# metainit -f submirror1 1 1 root-disk-slice

Cree una segunda concatenacin.


phys-schost# metainit submirror2 1 1 submirror-disk-slice
Captulo 4 Configuracindel software Solaris Volume Manager 173

Cree un reflejo unidireccional con un subreflejo.


phys-schost# metainit mirror -m submirror1 Nota Si se trata de un dispositivo local que se va a utilizar para montar un sistema de

archivos de dispositivos globales, /global/.devices/node@ id_nodo , el nombre de volumen del reflejo debe ser nico en el clster.
5

Configure los archivos del sistema para el directorio raz (/).


phys-schost# metaroot mirror

El comando edita los archivos /etc/vfstab y /etc/system de manera que el sistema pueda iniciarse con el sistema de archivos raz (/) en un metadispositivo o volumen. Para obtener ms informacin, consulte la pgina de comando man metaroot (1M).
6

Vace todos los sistemas de archivos.


phys-schost# lockfs -fa

Este comando vaca todas las transacciones del registro y las guarda en el sistema de archivos principal de todos los sistemas de archivos UFS montados. Para obtener ms informacin, consulte la pgina de comando man lockfs (1M).
7

Mueva los grupos de recursos y de dispositivos del nodo.


phys-schost# clnode evacuate from-node

de_nodo Especificael nombre del nodo del que se desean extraer los grupos de recursos o dispositivos.
8

Reinicie el nodo. Este comando vuelve a montar el sistema de archivos raz (/) cuyo reflejo se ha creado recientemente.
phys-schost# shutdown -g0 -y -i6

Adjunte el segundo subreflejo al reflejo.


phys-schost# metattach mirror submirror2

Consulte la pgina de cdigo man metattach(1M) para obtener ms informacin.


10

Si el disco que se utiliza para reflejar el disco raz est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento de ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk

-p

Especifica una propiedad de dispositivo.

default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
11

Registre la ruta de inicio alternativa para utilizarla ms adelan te. Si el dispositivo de inicio principal presenta errores, puede efectuar un inicio desde este dispositivo alternativo de inicio. Consulte Creating a RAID-1 Volume de Solaris Volume Manager Administration Guide para obtener ms informacin acerca de los dispositivos de inicio alternativos.
phys-schost# ls -l /dev/rdsk/ root-disk-slice

12

Repita del Paso 1 al Paso 11 en el resto de los nodos del clster. Asegrese de que todos los nombres de volumen de los reflejos en las que se vaya a montar un sistema de archivos de dispositivos globales, /global/.devices/node@ id_nodo , sean nicos en el clster.

Ejemplo 42

Creacin de reflejos del sistema de archivos raz (/)


En el siguiente ejemplo se muestra la creacin del reflejo d0 en el nodo phys-schost-1 , que consta del subreflejo d10 de la particin c0t0d0s0 y del subreflejo d20 de la particin c2t2d0s0 . El dispositivo c2t2d0 es un disco de host mltiple, por lo que el aislamiento est inhabilitado. En el ejemplo tambin se muestra la ruta de inicio alternativa para el registro.

phys-schost# metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup phys-schost# metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup phys-schost# metainit d0 -m d10 d10: Mirror is setup phys-schost# metaroot d0 phys-schost# lockfs -fa phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 phys-schost# metattach d0 d20 d0: Submirror d20 is attachedphys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 > ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw Pasos siguientes

Para crear reflejos del espacio de nombres de dispositivos globales, /global/.devices/node@ id_nodo , vaya a Cmo crear reflejos del espacio de nombres de los dispositivos globales en la pgina 176. Para crear reflejos de sistemas de archivos que no se puedan desmontar, vaya a Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179.

Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.
Errores ms frecuentes

Algunos pasos de este procedimiento de creacin de reflejos podran generar un mensaje de error similar a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.

Cmo crear reflejos del espacio de nombres de los dispositivos globales


Utilice este procedimiento para crear reflejos del espacio de nombres de dispositivos globales, /global/.devices/node@ id_nodo/.
Nota No siga este procedimiento si el espacio de nombres de dispositivos globales se

encuentra en un archivo basado en lofi . En lugar de ello, vaya a Cmo crear un reflejo del sistema de archivos raz (/) en la pgina 173.
1 2

Convirtase en superusuario. Ubique el segmento de espacio de nombres de dispositivos globales en una concatenacin de un solo segmento (unidireccional). Utilice el nombre de disco fsico del segmento del disco (cNtXd Y sZ).
phys-schost# metainit -f submirror1 1 1 diskslice

Cree una segunda concatenacin.


phys-schost# metainit submirror2 1 1 submirror-diskslice

Cree un reflejo unidireccional con un subreflejo.


phys-schost# metainit mirror -m submirror1 Nota El nombre de volumen de un reflejo en el que se vaya a montar un sistema de archivos

de dispositivos globales, /global/.devices/node@ id_nodo , debe ser nico en el clster.


5

Adjunte el segundo subreflejo al reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2

Edite la entrada del archivo /etc/vfstab del sistema de archivos /global/.devices/node@ id_nodo. Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /global/.devices/node@ nodeid ufs 2 no global

7 8

Repita del Paso 1 al Paso 6 en el resto de los nodos del clster. Espere a que se complete la sincronizacin de los reflejos, que comenz en el Paso 5. Visualice el estado del reflejo y compruebe que la sincronizacin de reflejos se haya completado mediante el comando metastat (1M).
phys-schost# metastat mirror

Si el disco que se utiliza para crear reflejos del espacio de nombres de dispositivos globales est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk

-p Especifica una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
Ejemplo 43

Creacin de reflejos del espacio de nombres de dispositivos globales


En el siguiente ejemplo se muestra la creacin del reflejo d101, que consta del subreflejo d111 de la particin c0t0d0s3 y el subreflejo d121 de la particin c2t2d0s3. La entrada del archivo /etc/vfstab de /global/.devices/node@1 se actualiza para que utilice el nombre de reflejo d101. El dispositivo c2t2d0 es un disco de host mltiple, por lo que su aislamiento est inhabilitado.
phys-schost# metainit -f d111 1 1 c0t0d0s3 d111: Concat/Stripe is setup phys-schost# metainit d121 1 1 c2t2d0s3 d121: Concat/Stripe is setup phys-schost# metainit d101 -m d111 d101: Mirror is setup

phys-schost# metattach d101 d121 d101: Submirror d121 is attached phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ d101 /dev/md/rdsk/ d101 /global/.devices/node@1 ufs 2 no global phys-schost# metastat d101 d101: Mirror Submirror 0: d111 State: Okay Submirror 1: d121 State: Resyncing Resync in progress: 15 % done . . . phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0 === D ID Device Instances === D ID Device Name: Full Device Path: Full Device Path: . . . phys-schost# Device Group . . . Node List: . . . localonly: phys-schost# phys-schost# Pasos siguientes cldevicegroup show | grep dsk/d2 Name: /dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c2t2d0 phys-schost-3:/dev/rdsk/c2t2d0

dsk/d2 phys-schost-3

phys-schost-1, false cldevicegroup remove-node -n phys-schost-3 dsk/d2 cldevice set -p default_fencing=nofencing c2t2d0

Para crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar, vaya a Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179. Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.

Errores ms frecuentes

Algunos pasos de este procedimiento de creacin de reflejos podran generar un mensaje de error similar a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.

Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar
Utilice este procedimiento para crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar durante el uso normal del sistema, tales como /usr , /opt o swap.

1 2

Convirtase en superusuario. Ubique el segmento que contiene el sistema de archivos que no se puede montar en una concatenacin de un solo segmento (unidireccional). Especifiqueel nombre de disco fsico del segmento del disco (cNtX dYsZ).
phys-schost# metainit -f submirror1 1 1 diskslice

Cree una segunda concatenacin.


phys-schost# metainit submirror2 1 1 submirror-diskslice

Cree un reflejo unidireccional con un subreflejo.


phys-schost# metainit mirror -m submirror1 Nota No es necesario que el nombre de volumen de este reflejo sea nico en el clster.

Repita del Paso 1 al Paso 4 en el resto de los sistemas de archivos no montables que desee reflejar. Edite en todos los nodos la entrada del archivo /etc/vfstab no montable que haya reflejado. de cada sistema de archivos

Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /filesystem ufs 2 no global 7

Mueva los grupos de recursos y de dispositivos del nodo.


phys-schost# clnode evacuate from-node

de_nodo Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos.
8

Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6

Adjunte el segundo subreflejo a cada reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2

10

Espere a que se complete la sincronizacin de los reflejos, que comenz en el Paso 9. Visualice el estado del reflejo y compruebe que la sincronizacin de reflejos se haya completado mediante el comando metastat (1M).
phys-schost# metastat mirror

11

Si el disco que se utiliza para crear reflejos del sistema de archivos no montable est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk

-p Especifica una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
Ejemplo 44

Creacin de reflejos de sistemas de archivos que no se pueden desmontar


En el siguiente ejemplo se muestra la creacin del reflejo d1 en el nodo phys-schost-1 para reflejar /usr , que reside en c0t0d0s1. El reflejo d1 consta del subreflejo d11 de la particin c0t0d0s1 y el subreflejo d21 de la particin c2t2d0s1. La entrada del archivo /etc/vfstab de /usr se actualiza para que utilice el nombre de reflejo d1. El dispositivo c2t2d0 es un disco de host mltiple, por lo que su aislamiento est inhabilitado.
phys-schost# metainit -f d11 1 1 c0t0d0s1 d11: Concat/Stripe is setup phys-schost# metainit d21 1 1 c2t2d0s1 d21: Concat/Stripe is setup phys-schost# metainit d1 -m d11 d1: Mirror is setup phys-schost# vi /etc/vfstab #device device mount FS #to mount to fsck point type # /dev/md/dsk/ d1 /dev/md/rdsk/ d1 /usr ufs 2 . . . phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6

fsck pass

mount at boot no global

mount options

phys-schost# metattach d1 d21 d1: Submirror d21 is attached phys-schost# metastat d1

d1: Mirror Submirror 0: d11 State: Okay Submirror 1: d21 State: Resyncing Resync in progress: 15 % done . . . phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0 . . . D ID Device Name: /dev/did/ rdsk/d2 phys-schost# cldevicegroup show dsk/d2 Device Group Name: dsk/d2 . . . Node List: phys-schost-1, phys-schost-3 . . . localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c2t2d0 Pasos siguientes

Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.

Errores ms frecuentes

Algunos de los pasos de este procedimiento de creacin de reflejos pueden llegar a generar un mensaje de error parecido a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.

Cmo crear reflejos de sistemas de archivos que se pueden desmontar


Utilice este procedimiento para crear reflejos de sistemas de archivos definidos por el usuario que se puedan desmontar. En este procedimiento no es necesario reiniciar los nodos.

1 2

Convirtase en superusuario. Desmonte el sistema de archivos del que crear reflejos. Asegrese de que ningn proceso se est ejecutando en el sistema de archivos.
phys-schost# umount /mount-point

Consulte la pgina de comando man umount(1M) y Captulo 18, Mounting and Unmounting File Systems (Tasks) de System Administration Guide: Devices and File Systems para obtener ms informacin.

Ubique en una concatenacin de un solo segmento (unidireccional) el segmento que contiene el sistema de archivos definido por el usuario que se puede desmonta r. Especifiqueel nombre de disco fsico del segmento del disco (cNtX dYsZ).
phys-schost# metainit -f submirror1 1 1 diskslice

Cree una segunda concatenacin.


phys-schost# metainit submirror2 1 1 submirror-diskslice

Cree una reflejo unidireccional con un subreflejo.


phys-schost# metainit mirror -m submirror1 Nota No es necesario que el nombre de volumen de este reflejo sea nico en el clster.

6 7

Repita del Paso 1 al Paso 5 para cada sistema de archivos montable que vaya a reflejar. Edite en todos los nodos la entrada del archivo /etc/vfstab del que haya creado un reflejo. para cada sistema de archivos

Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /filesystem ufs 2 no global 8

Adjunte el segundo subreflejo al reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2

Espere a que se complete la sincronizacin de los reflejos que comenz en el Paso 8. Utilice el comando metastat(1M) para visualizar el estado del reflejo.
phys-schost# metastat mirror

10

Si el disco que se utiliza para crear reflejos del sistema de archivos definido por el usuario est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk

-p Especifica una propiedad de dispositivo.

default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
11

Monte el sistema de archivos reflejado.


phys-schost# mount /mount-point

Consulte la pgina de comando man mount(1M) y Captulo 18, Mounting and Unmounting File Systems (Tasks) de System Administration Guide: Devices and File Systems para obtener ms informacin.
Ejemplo 45

Creacin de reflejos de sistemas de archivos que se pueden desmontar


En el siguiente ejemplo se muestra la creacin del reflejo d4 para reflejar /export , que reside en c0t0d0s4. El reflejo d4 consta del subreflejo d14 de la particin c0t0d0s4 y el subreflejo d24 de la particin c2t2d0s4. La entrada del archivo /etc/vfstab de /export se actualiza para que utilice el nombre de reflejo d4. El dispositivo c2t2d0 es un disco de host mltiple, por lo que su aislamiento est inhabilitado.
phys-schost# umount /export phys-schost# metainit -f d14 1 1 c0t0d0s4 d14: Concat/Stripe is setup phys-schost# metainit d24 1 1 c2t2d0s4 d24: Concat/Stripe is setup phys-schost# metainit d4 -m d14 d4: Mirror is setup phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # # /dev/md/dsk/ d4 /dev/md/rdsk/ d4 /export ufs 2 no global phys-schost# metattach d4 d24 d4: Submirror d24 is attached phys-schost# metastat d4 d4: Mirror Submirror 0: d14 State: Okay Submirror 1: d24 State: Resyncing Resync in progress: 15 % done . . . phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0 . . . D ID Device Name: /dev/did/ rdsk/d2 phys-schost# cldevicegroup show dsk/d2 Device Group Name: dsk/d2 . . . Node List: phys-schost-1, phys-schost-2 . . . localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2

Creacin de conjuntos de discos en un clster

phys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# m ount /export Pasos siguientes

Para crear un conjunto de discos, vaya a Creacin de conjuntos de discos en un clster en la pgina 184. Si en lugar de ello va a crear un conjunto de discos de varios propietarios para que lo utilice Oracle Real Application Clusters, vaya a Cmo crear un conjunto de discos de mltiples propietarios en Solaris Volume Manager for Sun Cluster para la base de datos Oracle RAC de Gua del servicio de datos de Oracle Solaris Cluster para Oracle Real Application Clusters (RAC). Si ya dispone de los conjuntos de discos suficientes para sus necesidades, vaya a uno de los siguientes procedimientos:

Si el clster contiene conjuntos de discos configurados exactamente con dos receptculos para discos y dos nodos, debe agregar mediadores de dos cadenas. Vaya a Configuracin de mediadores de dos cadenas en la pgina 193. Si la configuracin del clster no requiere mediadores de dos cadenas, vaya a Cmo crear sistemas de archivos del clster en la pgina 217.

Errores ms frecuentes

Algunos de los pasos de este procedimiento de creacin de reflejos pueden llegar a generar un mensaje de error parecido a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.

Creacin de conjuntos de discos en un clster


En esta seccin se describe cmo crear conjuntos de discos para una configuracin de clster. Al crear un conjunto de discos de Solaris Volume Manager en un entorno de Oracle Solaris Cluster, ste se registra automticamente en el software Oracle Solaris Cluster como grupo de dispositivos del tipo svm. Si desea crear o eliminar un grupo de dispositivos svm ,debe utilizar los comandos y las utilidades de Solaris Volume Manager para crear o eliminar el conjunto de discos subyacente del grupo de dispositivos. En la tabla que aparece a continuacin, se muestran las tareas que se han de realizar para crear conjuntos de discos. Realice los procedimientos en el orden indicado.
TA B L A42 Tarea

Mapa de tareas: instalacin y configuracin del software SolarisVolume Manager


Instrucciones

Cree conjuntos de discos mediante el comando metaset . Agregue unidades a los conjuntos de discos.

Cmo crear un conjunto de discos en la pgina 185 Cmo agregar unidades a un conjunto de discos en la pgina 188

Mapa de tareas: instalacin y configuracin del software SolarisVolume Manager (Continuacin)


TA B L A 42 Tarea Instrucciones

(Opcional) Vuelva a realizar las particiones de las unidades de un conjunto de discos para asignar espacio a distintos segmentos. Haga que se muestren las asignaciones de los pseudocontroladores DID y defina los volmenes de los archivos /etc/lvm/md.tab . Inicialice los archivos md.tab .

Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos en la pgina 189 Cmo crear un archivo md.tab en la pgina 190

Cmo activar volmenes en la pgina 191

Cmo crear un conjunto de discos


Lleve a cabo este procedimiento para crear conjuntos de discos. Ejecute el comando devfsadm (1M) en cada nodo del clster. Este comando puede ejecutarse simultneamente en todos los nodos del clster. Actualice el espacio de nombres de dispositivos globales desde un nodo del clster.
phys-schost# cldevice populate

Consulte la pgina de comando man cldevice(1CL) para obtener ms informacin.


3

Compruebe que el comando haya terminado su proceso en todos los nodos antes de intentar crear los conjuntos de discos. El comando se ejecuta de forma remota en todos los nodos, incluso al ejecutarse en un solo nodo. Para comprobar si el comando ha finalizado su proceso, ejecute el siguiente comando en cada nodo del clster:
phys-schost# ps -ef | grep scgdevs

Compruebe que el conjunto de discos que desea crear cumpla alguno de los requisitos que se recogen a continuacin.

Si el conjunto de discos se ha configurado exactamente con dos cadenas de discos, debe conectarse exactamente a dos nodos, y debe utilizar dos o tres hosts mediadores. Estos hosts mediadores incluyen los dos hosts conectados a los contenedores donde se ubica el conjunto de discos. Consulte la seccin Configuracin de mediadores de dos cadenas en la pgina 193 para obtener informacin detallada sobre la configuracin de los mediadores de dos cadenas. Si el conjunto de discos se ha configurado con ms de dos cadenas de discos, asegrese de que, en las cadenas S1 y S2, la suma del nmero de unidades de disco supere el nmero de unidades de la tercera cadena S3. Si lo representamos como una frmula, el requisito es: total(S1) + total(S2) > total(S3).

Asegrese de que existan las rplicas de bases de datos de estado locales. Si desea obtener instrucciones, consulte Cmo crear rplicas de la base de datos de estado en la pgina 172. Convirtase en superusuario en el nodo del clster que vaya a controlar el conjunto de discos. Cree el conjunto de discos. El comando que aparece a continuacin crea el conjunto de discos y lo registra como grupo de dispositivos de Oracle Solaris Cluster.
phys-schost# metaset -s setname -a -h node1 node2

6 7

-s setname Especificael nombre del conjunto de discos. -a Agrega (crea) el conjunto de discos. -h nodo1 Especificael nombre del nodo primario que controlar el conjunto de discos. nodo2 Especificael nombre del nodo secundario que controlar el conjunto de discos.
Nota Al ejecutar el comando metaset para configurar un grupo de dispositivos de Solaris

Volume Manager en un clster, el comando designa un nodo secundario de forma predeterminada. Puede cambiar el nmero de nodos secundarios deseado en el grupo de dispositivos mediante la utilidad clsetup una vez se haya creado el grupo de dispositivos. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin acerca de cmo cambiar la propiedad numsecondaries .
8

Si est configurando un grupo de dispositivos de Solaris Volume Manager repetido, establezca la propiedad de repeticin del grupo de dispositivos.
phys-schost# cldevicegroup sync device-group-name

Para obtener ms informacin acerca de la repeticin de datos, consulte el Captulo 4, Mtodos de replicacin de datos de Gua de administracin del sistema de Oracle Solaris Cluster.
9

Verifique el estado del nuevo conjunto de discos.


phys-schost# metaset -s setname

10

Establezca las propiedades del grupo de dispositivos segn sea necesario.


phys-schost# cldevicegroup set -p name=value devicegroup

-p Especifica una propiedad del grupo de dispositivos.

nombre Especificael nombre de una propiedad. valor Especifica el valor o configuracin de una propiedad. grupo_dispositivos Especificael nombre del grupo de dispositivos. El nombre del grupo de dispositivos es el mismo que el del conjunto de discos. Consulte la pgina de comando man cldevicegroup(1CL) para obtener informacin acerca de las propiedades de grupo de dispositivos.

Ejemplo 46

Creacin de un conjunto de discos


El comando que aparece a continuacin crea dos conjuntos de discos, dg-schost-1 y dg-schost-2 , con los nodos phys-schost-1 y phys-schost-2 como primarios potenciales.
phys-schost# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 phys-schost# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

Pasos siguientes

Agregue unidades al conjunto de discos. Vaya a Adicin de unidades a un conjunto de discos en la pgina 187.

Adicin de unidades a un conjunto de discos


Al agregar una unidad a un conjunto de discos, el software de administracin de volmenes vuelve a realizar la particin de la unidad como se describe a continuacin para que la base de datos de estado del conjunto de discos se pueda ubicar en la unidad.

Se reserva una pequea parte de cada unidad para su uso por parte del software Solaris Volume Manager. En los dispositivos etiquetados ndice de contenido del volumen (VTOC), se utiliza el segmento 7. En los dispositivos etiquetados Interfaz de firmware ampliable (EFI), se utiliza el segmento 6. El espacio sobrante de cada dispositivo se ubica en el segmento 0. A l agregar las unidades al conjunto de discos, se reconfigura la particin de stas slo si el segmento de destino no est configurado correctamente. A l reconfigurar la particin, se pierden todos los datos incluidos en las unidades. Si el segmento de destino comienza en el cilindro 0 y la particin de la unidad es lo suficientemente grande como para contener una rplica de base de datos de estado, no se realiza una nueva particin.

Cmo agregar unidades a un conjunto de discos


Antes de empezar 1 2

Asegrese de que el conjunto de discos se haya creado. Para obtener instrucciones, consulte Cmo crear un conjunto de discos en la pgina 185. Convirtase en superusuario. Haga que se muestren las asignaciones D ID.
phys-schost# cldevice show | grep Device

Elija las unidades que comparten los nodos del clster que vayan a controlar el conjunto de discos o que tengan la posibilidad de hacerlo. Use el nombre de dispositivo de DID completo, que tiene el formato /dev/did/rdsk/d N, al agregar una unidad a un conjunto de discos. indican que

En el ejemplo siguiente, las entradas del dispositivo de DID /dev/did/rdsk/d3 phys-schost-1 y phys-schost-2 comparten la unidad.
=== D ID Device Instances === D ID Device Name: Full Device Path: D ID Device Name: Full Device Path: D ID Device Name: Full Device Path: Full Device Path: . . . 3

/dev/did/rdsk/d1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d3 phys-schost-1:/dev/rdsk/c1t1d0 phys-schost-2:/dev/rdsk/c1t1d0

Convirtase en propietario del conjunto de discos.


phys-schost# cldevicegroup switch -n node devicegroup

-n nodo Especificael nodo que va a ser el propietario del grupo de dispositivos. grupo_dispositivos Especificael nombre del grupo de dispositivos, que es el mismo que el del conjunto de discos.
4

Agregue las unidades al conjunto de discos. Utilice el nombre completo de la ruta de DID.
phys-schost# metaset -s setname -a /dev/did/rdsk/d N

-s nombre_conjunto Especificael nombre del conjunto de discos, que es el mismo que el del grupo de dispositivos. -a Agrega la unidad al conjunto de discos.

Nota No utilice el nombre de dispositivo de nivel inferior (cNtXdY) cuando agregue una

unidad a un conjunto de discos. Ya que el nombre de dispositivo de nivel inferior es un nombre local y no nico para todo el clster, si se utiliza es posible que se prive al metaconjunto de la capacidad de conmutar a otra ubicacin.
5

Compruebe el estado del conjunto de discos y de las unidade s.


phys-schost# metaset -s setname

Ejemplo 47

Adicinde unidades a un conjunto de discos


El comando metaset agrega las unidades /dev/did/rdsk/d1 conjunto de discos dg-schost-1 .
phys-schost# metaset -s dg-schost-1 -a /dev/did/rdsk/d1

y /dev/did/rdsk/d2
/dev/did/rdsk/d2

al

Pasos siguientes

Si desea reconfigurar la particin de unidades para utilizarlas en volmenes, vaya a Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos en la pgina 189. De lo contrario, vaya a Cmo crear un archivo md.tab en la pgina 190 para definir metadispositivos o volmenes mediante un archivo md.tab .

Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos


El comando metaset(1M) reconfigura las particiones de las unidades de un conjunto de discos de forma que se reserve una pequea parte de cada unidad para su uso por parte del software Solaris Volume Manager. En los dispositivos etiquetados ndice de contenido del volumen (VTOC), se utiliza el segmento 7. En los dispositivos etiquetados Interfaz de firmware ampliable (EFI), se utiliza el segmento 6. El espacio sobrante de cada dispositivo se ubica en el segmento 0. Para que el uso de la unidad resulte ms efectivo, modifique el diseo del disco mediante este procedimiento. Si asigna espacio a los segmentos 1 a 6 de VTOC o a los segmentos 1 a 5 de EFI, podr utilizarlos cuando configure volmenes de Solaris Volume Manager.

1 2

Convirtase en superusuario. Utilice el comando format para modificar la particin de disco en todas las unidades del conjunto de discos. Al reconfigurar la particin de una unidad, se deben cumplir las siguientes condiciones para evitar que el comando metaset(1M) reconfigure la particin de la unidad:

Cree el segmento 7 en VTOC o el 6 en EFI con inicio en el cilindro 0 y lo suficientemente grandes para albergar una rplica de base de datos de estado. Consulte la gua de administracin de Solaris Volume Manager para determinar cul ha de ser el tamao de una rplica de base de datos de estado en la versin del software de administracin de volmenes que utiliza. Establezca el campo Flag del segmento de destino en w u (lectura-escritura, no montable). No lo configure como de slo lectura. No permita que el segmento de destino se solape con otro segmento de la unidad.

Consulte la pgina de comando man format(1M) para obtener informacin detallada.


Pasos siguientes

Defina los volmenes mediante un archivo md.tab. Vaya a Cmo crear un archivo md.tab en la pgina 190.

Cmo crear un archivo md.tab


Cree un archivo /etc/lvm/md.tab en cada nodo del clster. Utilice el archivo md.tab para definir los volmenes de Solaris Volume Manager para los conjuntos de discos que ha creado.
Nota Si utiliza volmenes locales, asegrese de que sus nombres sean distintos de los de los

ID de dispositivo utilizados para formar conjuntos de discos. Por ejemplo, si se utiliza el nombre de ID de dispositivo /dev/did/dsk/d3 en un conjunto de discos, no se debe utilizar el nombre /dev/md/dsk/d3 para un volumen local. Este requisito no se aplica a volmenes compartidos, que utilizan la convencin de nomenclatura /dev/md/ nombre_conjunto/ {r}dsk/d #.
1 2

Convirtase en superusuario. Haga que se muestren las asignaciones D ID para utilizarlas como referencia al crear el archivo md.tab. Utilice los nombres de dispositivo DID completos del archivo md.tab en lugar de los nombres de dispositivo de nivel inferior (cN tXdY). El nombre del dispositivo DID sigue el esquema /dev/did/rdsk/d N.
phys-schost# cldevice show | grep Device === D ID Device Instances D ID Device Name: Full Device Path: D ID Device Name: === /dev/did/rdsk/d1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d2

Full Device Path: D ID Device Name: Full Device Path: Full Device Path: . . .

phys-schost-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d3 phys-schost-1:/dev/rdsk/c1t1d0 phys-schost-2:/dev/rdsk/c1t1d0

Cree un archivo /etc/lvm/md.tab y modifquelo con el editor de texto que desee.


Nota Si las unidades contienen datos que se van a utilizar para los subreflejos, debe realizar

una copia de seguridad de dichos datos antes de configurar el volumen. A continuacin, restaure los datos en el reflejo. Con el fin de evitar posibles confusiones entre los volmenes locales de distintos nodos en un entorno de clster, utilice una estructura de nombres que haga que cada nombre de volumen local sea nico en el clster. Por ejemplo, elija los nombres entre d100 y d199 para el nodo 1. Y entre d200 y d299 para el nodo 2. Consulte la documentacin de Solaris Volume Manager y la pgina de comando man md.tab(4) para obtener informacin detallada acerca de la creacin de archivos md.tab .

Ejemplo 48

Archivo ejemplo

md.tab

de

El archivo md.tab de ejemplo mostrado a continuacin define el conjunto de discos con nombre dg-schost-1 . No es importante ordenar las lneas en el archivo md.tab .
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

El archivo md.tab de ejemplo se ha construido de la siguiente forma: 1. En la primera lnea, se define el dispositivo d0 como reflejo de los volmenes d10 y d20. La -m indica que se trata de un dispositivo de reflejo.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20

2. En la segunda lnea, se define el volumen d10, el primer subreflejo de d0, como banda unidireccional.
Pasos siguientes dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0

3. En la tercera lnea, se define el volumen d20, el segundo subreflejo de d0, como banda unidireccional.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

Active los volmenes definidos en los archivos md.tab. Vaya a Cmo activar volmenes en la pgina 191.

Cmo activar volmenes


Lleve a cabo este procedimiento para activar los volmenes de Solaris Volume Manager definidos en los archivos md.tab . Convirtase en superusuario.

2 3

Asegrese de que los archivos md.tab se encuentren en el directorio /etc/lvm . Asegrese de tener la propiedad del conjunto de discos del nodo en el que se ejecutar el comando. Convirtase en propietario del conjunto de discos.
phys-schost# cldevicegroup switch -n node devicegroup

-n nodo Especificael nodo que toma posesin. grupo_dispositivos Especificael nombre del conjunto de discos.
5

Active los volmenes del conjunto de discos, que se definen en el archivo md.tab.
phys-schost# metainit -s setname -a

-s nombre_conjunto Especificael nombre del conjunto de discos. -a Activa todos los volmenes del archivo md.tab.
6

Repita del Paso 3 al Paso 5 para cada conjunto de discos del clster. Si fuera necesario, ejecute el comando metainit(1M) desde otro nodo que tenga conectividad con las unidades. Es necesario realizar este paso en topologas de pares de clsteres, en las que las unidades no son accesibles desde todos los nodos. Compruebe el estado de los volmenes.
phys-schost# metastat -s setname

Consulte la pgina de comando man metastat(1M) para obtener ms informacin.


8

(Opcional) Capture la informacin de particin de disco para consultarla en el futuro.


phys-schost# prtvtoc /dev/rdsk/ cNtXdYsZ > filename

Almacene el archivo en una ubicacin que se encuentre fuera del clster. Si realiza cambios en la configuracin del disco, ejecute este comando para capturar la configuracin modificada. Si un disco presenta errores y es necesario sustituirlo, esta informacin puede utilizarse para restaurar la configuracin de particin del disco. Para obtener ms informacin, consulte la pgina de comando man prtvtoc (1M).
9

(Opcional) Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.

Configuracinde mediadores de dos cadenas

Ejemplo 49

Activacin de volmenes en el archivo md.tab


En el ejemplo que aparece a continuacin, estn activados todos los volmenes definidos en el archivo md.tab para el conjunto de discos dg-schost-1 .
phys-schost# metainit -s dg-schost-1 -a

Pasos siguientes

Si el clster contiene conjuntos de discos configurados exactamente con dos receptculos para discos y dos nodos, agregue mediadores de dos cadenas. Vaya a Configuracin de mediadores de dos cadenas en la pgina 193. De lo contrario, vaya a Cmo crear sistemas de archivos del clster en la pgina 217 para crear un sistema de archivos del clster.

Configuracin de mediadores de dos cadenas


Esta seccin ofrece informacin y procedimientos para configurar hosts mediadores de dos cadenas. Una sola cadena de discos consta de un receptculo para discos, sus unidades fsicas, los cables del receptculo al nodo o nodos y las tarjetas del adaptador de interfaz. Un conjunto de discos de dos cadenas contiene discos en dos cadenas de discos y est conectado exactamente a dos nodos. Si falla un disco de una sola cadena en un conjunto de discos de dos cadenas, de forma que justo la mitad las rplicas de Solaris Volume Manager dejan de estar disponibles, el conjunto de discos deja de funcionar. Por lo tanto, estos mediadores de dos cadenas son necesarios en todos los conjuntos de discos de dos cadenas de Solaris Volume Manager. El uso de mediadores permite al software Oracle Solaris Cluster que se presenten los datos ms actualizados en el caso de que se produzca un error en una nica cadena dentro de una configuracin de dos cadenas. Un mediador de dos cadenas, o host mediador, es un nodo del clster que almacena datos de mediador. Los datos de mediador proporcionan informacin acerca de la ubicacin de otros mediadores y contienen un nmero de confirmaciones idntico al almacenado en las rplicas de la base de datos. Este nmero de confirmaciones se utiliza para confirmar que los datos del mediador estn sincronizados con los datos de las rplicas de la base de datos. En la siguiente tabla se muestran las tareas que se han de realizar para configurar un host mediador de dos cadenas. Realice los procedimientos en el orden indicado.

TA B L A43 Tarea

Mapa de tareas: instalacin y configuracin del software SolarisVolume Manager


Instrucciones

Configure los hosts mediadores de dos cadenas.

Requisitos para los mediadores de dos cadenas en la pgina 194 Cmo agregar hosts mediadores en la pgina 194

Compruebe el estado de los datos de mediador. Si fuera necesario, corrija los datos de mediador errneos.

Cmo comprobar el estado de los datos de mediador en la pgina 195 Cmo corregir datos de mediador errneos en la pgina 196

Requisitos para los mediadores de dos cadenas


Las siguientes reglas se aplican a las configuraciones de dos cadenas que utilicen mediadores:

Los conjuntos de discos se deben configurar con dos o tres hosts mediadores. Dos de estos hosts mediadores deben ser los dos nodos del clster utilizados para el conjunto de discos. El tercero puede ser otro nodo del clster o un host que no est en clster en la red pblica del clster, por ejemplo un servidor de qurum. Los mediadores no se pueden configurar en los conjuntos de discos que no cumplan los criterios de dos cadenas y dos hosts.

Estas reglas no requieren que en todo el clster haya slo dos nodos. Estas reglas permiten clsteres N+1 y muchas otras topologas.

Cmo agregar hosts mediadores


Lleve a cabo este procedimiento si su configuracin requiere mediadores de dos cadenas.

Antes de empezar

Si va a utilizar un tercer host mediador para un conjunto de discos de dos cadenas y dicho host no tiene configurados todava conjuntos de discos, efecte los pasos siguientes: Agregue la entrada root al grupo sysadmin del archivo /etc/group . Cree un conjunto de discos de prueba con el comando:
phys-schost-3# metaset -s dummy-diskset-name -a -h hostname

Convirtase en superusuario en el nodo que controla actualmente el conjunto de discos al que pretende agregar hosts mediadores.
2

Agregue los nodos con conectividad al conjunto de discos como host mediador de ese conjunto de discos.
phys-schost# metaset -s setname -a -m mediator-host-list

-s nombre_conjunto Especificael nombre del conjunto de discos. -a Agrega elementos al conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a agregar como host mediador del conjunto de discos. Consulte la pgina de comando man mediator(7D) para obtener informacin detallada sobre las opciones especficas de mediadores del comando metaset .
Ejemplo 410

Adicinde hosts mediadores


En el siguiente ejemplo se agregan los nodos phys-schost-1 y phys-schost-2 como hosts mediadores del conjunto de discos dg-schost-1 . Si es necesario, repita el comando por tercera vez para un tercer host mediador. Todos los comandos se ejecutan desde el nodo que controla el conjunto de discos al que va a agregar hosts mediadores, en este caso phys-schost-1 .
phys-schost# metaset -s dg-schost-1 -a -m phys-schost-1 phys-schost# metaset -s dg-schost-1 -a -m phys-schost-2 phys-schost# metaset -s dg-schost-1 -a -m phys-schost-3

Pasos siguientes

Compruebe el estado de los datos de mediador. Vaya a Cmo comprobar el estado de los datos de mediador en la pgina 195.

Antes de empezar 1

Cmo comprobar el estado de los datos de mediador


Asegrese de haber agregado los hosts mediadores, tal como se describe en Cmo agregar hosts mediadores en la pgina 194. Visualice el estado de los datos de mediador.
phys-schost# medstat -s setname

-s nombre_conjunto Especificael nombre del conjunto de discos. Consulte la pgina de comando man medstat(1M) para obtener ms informacin.
2

Si el campo Estado de la salida de medstat muestra el valor B ad(Errneo), repare el host mediador que corresponda. Vaya a Cmo corregir datos de mediador errneos en la pgina 196. Vaya a Cmo crear sistemas de archivos del clster en la pgina 217 para crear un sistema de archivos del clster.

Pasos siguientes

Cmo corregir datos de mediador errneos


Lleve a cabo este procedimiento para reparar datos de mediador errneos. Identifique todos los host mediadores con datos incorrectos de mediador. Consulte Cmo comprobar el estado de los datos de mediador en la pgina 195. Convirtase en superusuario en el nodo propietario del conjunto de discos afectado. Quite los hosts mediadores con datos de mediador errneos de todos los conjuntos de discos afectados.
phys-schost# metaset -s setname -d -m mediator-host-list

2 3

-s nombre_conjunto Especificael nombre del conjunto de discos. -d Elimina elementos del conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a eliminar como host mediador del conjunto de discos.
4

Restaure los hosts mediadores que suprimi en el Paso 3.


phys-schost# metaset -s setname -a -m mediator-host-list

-a Agrega elementos al conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a agregar como host mediador del conjunto de discos. Consulte la pgina de comando man mediator(7D) para obtener informacin detallada sobre las opciones especficas de mediadores del comando metaset .
Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253.

Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.

198

Instalacin y configuracinde Veritas Volume Manager

A P T U L O

Instale y configure los discos locales y los discos multihost para Veritas Volume Manager (VxVM) usando los procedimientos que se indican en este captulo, junto con la informacin de planificacin que figura en Planificacin de la administracin de volmenes en la pgina 53. Consulte la documentacin de VxVM para obtener ms informacin. En este captulo se incluyen las siguientes secciones:

Instalacin y configuracin del software VxVM en la pgina 199 Creacin de grupos de discos en un clster en la pgina 207 Desencapsulacin del disco raz en la pgina 214

Instalacin y configuracin del software V xV M


En esta seccin se proporcionan la informacin y los procedimientos para instalar y configurar el software VxVM en una configuracin de Oracle Solaris Cluster. En la tabla siguiente, se muestran las tareas que se deben llevar a cabo para instalar y configurar el software VxVM para la configuracin de Oracle Solaris Cluster. Realice los procedimientos en el orden indicado.
TA B L A 51 Tarea

Mapa de tareas: instalacin y configuracin del software VxVM


Instrucciones

Planifique el diseo de configuracin de VxVM. (Opcional) Determine cmo crear el grupo de discos raz en cada nodo.

Planificacin de la administracin de volmenes en la pgina 53 Informacin general de la configuracin de un grupo de discos raz en la pgina 200
199

Instalacin y configuracindel software Vx V M

TA B L A51 Tarea

Mapa de tareas: instalacin y configuracin del software VxVM


Instrucciones

(Continuacin)

Instale el software VxVM.

Cmo instalar el software Veritas Volume Manager en la pgina 201 Documentacin de instalacin de VxVM

(Opcional) Cree un grupo de discos raz. Puede encapsular el disco raz (slo para UFS) o crear el grupo de discos raz en discos locales que no sean raz. (Opcional) Cree reflejos del disco raz encapsulado. Cree grupos de discos.

SPARC: Cmo encapsular el disco raz en la pgina 203 Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204 Cmo crear reflejos del disco raz encapsulado en la pgina 205 Creacin de grupos de discos en un clster en la pgina 207

Informacin general de la configuracin de un grupo de discos raz


La creacin de un grupo de discos raz es opcional. Si no tiene intencin de crear un grupo de discos raz, contine con Cmo instalar el software Veritas Volume Manager en la pgina 201.

El acceso del grupo de discos raz del nodo se debe restringir a ese nodo. Los nodos remotos no deben acceder nunca a los datos almacenados en un grupo de discos raz de otro nodo. No utilice el comando cldevicegroup para registrar el grupo de discos raz como grupo de dispositivos. Siempre que sea posible, configure el grupo de discos raz de cada nodo en un disco no compartido.

El software Oracle Solaris Cluster admite los siguientes mtodos para configurar el grupo de discos raz.

Encapsulacin del disco raz del nodo (slo para UFS): este mtodo permite crear reflejos del disco raz, lo que proporciona un mtodo alternativo de inicio en caso de que el disco raz est daado. Para encapsular el disco raz, necesita dos segmentos de disco libres, as como cilindros libres, preferiblemente al inicio o al final del disco. No se pueden encapsular el disco raz si ste utiliza el sistema de archivos ZFS. En su lugar, configure el grupo de discos raz en discos locales que no sean raz.

Uso de discos locales que no sean raz: este mtodo proporciona una alternativa a la encapsulacin del disco raz. Si se encapsula el disco raz de un nodo, determinadas tareas que podran realizarse posteriormente, como la actualizacin del sistema

200

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

operativo o los

Instalacin y configuracindel software Vx V M

201

Instalacin y configuracindel software Vx V M

procedimientos de recuperacin ante desastres, pueden resultar ms complicadas que si el disco raz no se encapsula. Para evitar esta posible complejidad aadida, puede inicializar o encapsular los discos locales que no sean raz para utilizarlos como grupos de disco raz. Un grupo de discos raz creado en discos locales que no sean raz es local en ese nodo, por lo que no est accesible globalmente ni proporciona alta disponibilidad. Al igual que en el disco raz, para encapsular un disco que no sea raz, se necesitan dos segmentos de disco, as como segmentos libres, al inicio o al final del disco. Consulte la documentacin de instalacin de VxVM para obtener ms informacin.

Cmo instalar el software Veritas Volume Manager

Realice este procedimiento para instalar el software Veritas Volume Manager (VxVM) en cada nodo del clster global en el que desee instalar VxVM. Puede instalar VxVM en todos los nodos del clster o slo en aquellos conectados fsicamente a los dispositivos de almacenamiento que administrar VxVM.
Antes de empezar

Realice las siguientes tareas:


Asegrese de que todos los nodos del clster se estn ejecutando en el modo de clster. Obtenga las claves de licencia de Veritas Volume Manager (VxVM) que necesite instalar. Tenga a mano la documentacin de instalacin de Veritas Volume Manager.

Convirtase en superusuario en el nodo del clster en el que desee instalar Veritas Volume Manager. Introduzca el CD-R O Mde V xV Men la unidad de CD-R O Mdel nodo. Siga los procedimientos de la gua de instalacin de V xV Mpara instalar y configurar el software y las licencias de V xV M . Ejecute la utilidad clvxvm en el modo no interactivo.
phys-schost# clvxvm initialize

2 3

La utilidad clvxvm realiza las tareas posteriores a la instalacin necesarias. La utilidad clvxvm tambin selecciona y configura el nmero mayor del controlador vxio en todo el clster. Consulte la pgina de comando man clvxvm(1CL) para obtener ms informacin.
5

SPA R C :Para habilitar la funcin de clster de V xV M proporcione , la clave de licencia de esta funcin si an no lo ha hecho.
Captulo 5 Instalacin y configuracinde Veritas Volume Manager 201

Instalacin y configuracindel software Vx V M

Consulte la document acin de VxVM para obtener informaci n sobre cmo agregar una licencia.

202

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

(Opcional) Instale la G U Ide V xV M . Consulte la documentacin de VxVM para obtener informacin sobre la instalacin de la GUI de VxVM.

7 8

Expulse el CD-R OM . Instale los parches de VxVMsho rt; necesarios para admitir el uso de Oracle Solaris Cluster. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.

Repita del Paso 1 al Paso 8 para instalar V xV Men otros nodos.


Nota SPARC: Para habilitar el clster de VxVM, debe instalar VxVM en todos los nodos

del clster.
10

Si no instala V xV Men uno o varios nodos, modifique el archivo /etc/name_to_major en cada nodo sin V xV M . a. En un nodo en el que se haya instalado V xV M determine , el valor del nmero mayor de vxio .
phys-schost# grep vxio /etc/name_to_major

b. Convirtase en superusuario en un nodo en el que no tenga intencin de instalar V xV M c. . Edite el archivo /etc/name_to_major y agregue una entrada para establecer el nmero mayor de vxio en NNN, el nmero obtenido en el Paso a.
phys-schost# vi /etc/name_to_major vxio NNN

d. Inicialice la entrada vxio .


phys-schost# drvconfig -b -i vxio -m NNN

e. Repita del Paso a al Paso d en todos los nodos en los que no desee instalar V xV M . Una vez finalizado el proceso, cada nodo del clster debera tener la misma entrada vxio en el archivo /etc/name_to_major .
11

Para crear un grupo de discos raz, vaya a SPA R C :Cmo encapsular el disco raz en la pgina 203 o Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204. De lo contrario, contine con el Paso 12.

Nota Los grupos de discos raz son opcionales.

12

Reinicie cada nodo en el que haya instalado V xV M .


phys-schost# shutdown -g0 -y -i6

Pasos siguientes

Para crear un grupo de discos raz, vaya a SPARC: Cmo encapsular el disco raz en la pgina 203 (slo para UFS) o Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204. De lo contrario, cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.

SPA R C : Cmo encapsular el disco raz


Realice este procedimiento para crear un grupo de discos raz mediante la encapsulacin del disco raz UFS. Los grupos de discos raz son opcionales. Consulte la documentacin de VxVM para obtener ms informacin.
Nota Si el disco raz utiliza ZFS, slo puede crear un grupo de discos raz en discos locales

que no sean raz. Si desea crear un grupo de discos raz en discos que no sean raz, lleve a cabo el procedimiento descrito en Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204.
Antes de empezar 1 2

Asegrese de que haya instalado VxVM, como se describe en la seccin Cmo instalar el software Veritas Volume Manager en la pgina 201. Convirtase en superusuario en el nodo en el que ha instalado V xV M Encapsule . el disco raz UFS.
phys-schost# clvxvm encapsulate

Consulte la pgina de comando man clvxvm(1CL) para obtener ms informacin.


3 Pasos siguientes

Repita el procedimiento para cada nodo en el que haya instalado V xV M . Para crear reflejos del disco raz encapsulado, vaya a Cmo crear reflejos del disco raz encapsulado en la pgina 205. De lo contrario, vaya a Creacin de grupos de discos en un clster en la pgina 207.

Cmo crear un grupo de discos raz en un disco que no sea raz


Utilice este procedimiento para crear un grupo de discos raz mediante la encapsulacin o la inicializacin de discos locales que no sean raz. La creacin de un grupo de discos raz es opcional.
Nota Si desea crear un grupo de discos raz en un disco raz que utiliza UFS, lleve a cabo

los procedimientos descritos en SPARC: Cmo encapsular el disco raz en la pgina 203.
Antes de empezar

Si se van a encapsular los discos, asegrese de que cada uno de ellos cuente con, al menos, dos segmentos sin ningn cilindro. Si es necesario, utilice el comando format(1M) para asignar 0 cilindros al segmento de VxVM. Convirtase en superusuario. Inicie la utilidad vxinstall .
phys-schost# vxinstall

1 2

Cuando la utilidad vxinstall entradas.

se lo solicite, seleccione las siguientes opciones o

SPAR C : Para habilitar la funcin de clster de VxVM, proporcione la clave de licencia de esta funcin. Seleccione la instalacin personalizada. No encapsule el disco de Seleccione los discos que se agregarn al grupo de discos

inicio.

raz. No acepte la opcin de reinicio automtico.

Si el grupo de discos raz que se ha creado contiene uno o varios discos que se conectan a ms de un nodo, asegrese de que el aislamiento est inhabilitado para estos discos. Utilice el siguiente comando para inhabilitar el aislamiento para cada disco compartido del grupo de discos raz.
phys-schost# cldevice set -p default_fencing=nofencing device

-p Especifica una propiedad de dispositivo.

default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. La inhabilitacin de esta funcin en el dispositivo impide el aislamiento del nodo en el disco utilizado por el grupo de discos raz cuando ste se encuentra conectado a varios nodos.

Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
5

Extraiga los grupos de recursos o dispositivos del nodo.


phys-schost# clnode evacuate from-node

de_nodo Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos.
6

Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6

Utilice el comando vxdiskadmpara agregar varios discos al grupo de discos raz. El grupo de discos raz puede tolerar un error de disco si contiene varios discos. Consulte la documentacin de VxVM para obtener informacin sobre los procedimientos. Cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.

Pasos siguientes

Cmo crear reflejos del disco raz encapsulado


Despus de instalar VxVM y encapsular el disco raz, realice este procedimiento en cada nodo en el que desee reflejar el disco raz encapsulado.

Antes de empezar 1 2

Asegrese de que haya encapsulado el disco raz como se describe en la seccin SPARC: Cmo encapsular el disco raz en la pgina 203. Convirtase en superusuario. Muestre los dispositivos.
phys-schost# cldevice list -v

La salida presenta un aspecto similar al siguiente:


D ID Device ---------d1 d2 d3 d3 3 Full Device Path ---------------phys-schost-1:/dev/rdsk/c0t0d0 phys-schost-1:/dev/rdsk/c0t6d0 phys-schost-2:/dev/rdsk/c1t1d0 phys-schost-1:/dev/rdsk/c1t1d0

Cree reflejos del disco raz encapsulad o. Siga los procedimientos descritos en la documentacin de VxVM. Para obtener la mxima disponibilidad y una administracin simplificada, utilice un disco local para el reflejo. Consulte la seccin Directrices para la creacin de reflejos del disco raz en la pgina 58 para obtener directrices adicionales.

Caution No utilice un dispositivo del qurum para crear reflejos de un disco raz, ya que

esto podra impedir que el nodo se inicie desde el reflejo del disco raz en determinadas circunstancias.
4

Busque en la lista de nodos del grupo de dispositivos de disco bsicos el dispositivo que haya utilizado para crear el reflejo del disco raz. El nombre del grupo de dispositivos presenta el formato, dsk/dN, donde dN es el nombre del dispositivo DID.
phys-schost# cldevicegroup list -v dsk/dN

-v Muestra la salida detallada. La salida presenta un aspecto similar al siguiente.


Device group -----------dsk/d N 5 Type ---Local_Disk Node lis t --------phys-schost-1,

phys-schost-3

Si la lista de nodos contiene ms un nombre de nodo, suprima de la lista todos los nodos, excepto aquel cuyo disco raz se haya reflejado. Slo el nodo cuyo disco raz se ha reflejado debera permanecer en la lista de nodos del grupo de dispositivos de disco bsicos.
phys-schost# cldevicegroup remove-node -n node dsk/d N

-n nodo Especificael nodo que se va a suprimir de la lista de nodos del grupo de dispositivos.
6

Inhabilite el aislamiento para todos los discos del grupo de dispositivos de disco bsicos que se conecten a ms de un nodo. Al inhabilitar el aislamiento para un dispositivo, se impide que el nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing device

-p Establece el valor de una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
7

Repita esta procedimiento en cada nodo del clster cuyo disco raz encapsulado desee reflejar.

Creacin de grupos de discos en un clster

Ejemplo 51

Creacin de reflejosdel disco raz encapsulado


En el siguiente ejemplo, se muestra un reflejo del disco raz creado para el nodo phys-schost1. El reflejo se ha creado en el disco c0t0d0, cuyo nombre de grupo de dispositivos de disco bsicos es dsk/d2. c0t0d0 es un disco multihost, por lo que el nodophys-schost-3 se suprime de la lista de nodos del disco y se inhabilita el aislamiento.
phys-schost# cldevice list -v D ID Device Full Device Path ------------------------d2 pcircinus1:/dev/rdsk/c0t0d0 . . . Create the mirror by using VxVM procedures phys-schost# cldevicegroup lis t -v dsk/d2 Device group Type Node lis t ----------------------dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c0t0d0

Pasos siguientes

Cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.

Creacin de grupos de discos en un clster


En esta seccin se describe cmo crear un grupo de discos de VxVM en un clster. En la tabla siguiente, se describen los tipos de grupos de discos de VxVM que puede establecer en una configuracin de Oracle Solaris Cluster y sus caractersticas.
Se ha registrado en Oracle Solaris Tipo de grupo de discos Uso Cluster?

Requisito de almacenamien to

Grupo de discos de VxVM

Grupos de dispositivos para servicios de datos escalables o de migracin tras error, dispositivos globales o sistemas de archivos del clster Aplicaciones que no sean de alta disponibilidad y confinadas a un nico nodo Oracle Real Application Clusters (requiere tambin la funcin de clster de VxVM)

Almacenamiento compartido

Grupo de discos locales de VxVM Grupo de discos compartidos de VxVM

No

Almacenamiento compartido o no compartido Almacenamiento compartido

No

En la tabla siguiente, se muestran las tareas necesarias para crear grupos de discos de VxVM

en una configuracin de Oracle Solaris Cluster. Realice los procedimientos en el orden clster indicado.

Creacin de grupos de discos en un

TA B L A52 Tarea

Mapa de tareas: creacin de grupos de discos de VxVM


Instrucciones

Cree grupos de discos y volmenes.

Cmo crear un grupo de discos en la pgina 208

Registre como grupos de dispositivos de Oracle Cmo registrar un grupo de discos en la pgina 210 Solaris Cluster aquellos grupos de discos que no sean locales y que no utilicen la funcin de clster VxVM. Si es necesario, solucione cualquier conflicto entre los Asignacin de un nmero menor nuevo a un grupo grupos de dispositivos en relacin el nmero menor de dispositivos en la pgina 211 asignando uno nuevo. Compruebe los grupos de discos y los volmenes Cmo verificar la configuracin del grupo de discos en la pgina 212

Cmo crear un grupo de discos


Utilice este procedimiento para crear los grupos de discos y los volmenes de VxVM. Realice este procedimiento desde un nodo conectado fsicamente a los discos que conforman el grupo de discos que desea agregar.

Antes de empezar

Realice las siguientes tareas:

Establezca las asignaciones de las unidades de los discos de almacenamiento. Consulte el manual correspondiente de la Coleccin de administracin del hardware de Oracle Solaris Cluster para realizar una instalacin inicial del dispositivo de almacenamiento. Rellene las siguientes plantillas de planificacin de la configuracin.

Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273 Hoja de trabajo para la configuracin de grupos de dispositivos en la pgina 277 Hoja de trabajo para la configuracin del administrador de volmenes en la pgina 279

Consulte Planificacin de la administracin de volmenes en la pgina 53 para obtener directrices de planificacin.

Si no ha creado grupos de discos raz, asegrese de que haya reiniciado cada nodo en el que se haya instalado VxVM, como se indica en el Paso 12 de Cmo instalar el software Veritas Volume Manager en la pgina 201.

1 2

Convirtase en superusuario en el nodo que sea el propietario del grupo de discos. Cree los grupos de discos y los volmenes de V xV M . Tenga en cuenta las siguientes instrucciones especiales:

SPARC: Si va a instalar Oracle Real Application Clusters, cree grupos de discos compartidos de VxVM mediante la funcin de clster de VxVM. Tenga en cuenta las directrices e instrucciones que aparecen en Cmo crear un grupo de discos compartidos de VxVM para la base de datos Oracle RAC de Gua del servicio de datos de Oracle Solaris Cluster para Oracle Real Application Clusters (RAC) y en Veritas Volume Manager Administrator's ReferenceGuide. De lo contrario, cree los grupos de discos de VxVM mediante los procedimientos estndar descritos en la documentacin de VxVM.

Nota Puede utilizar el Registro de reas modificadas (DRL) para reducir el tiempo de

recuperacin de los volmenes en caso de producirse un error en el nodo. Sin embargo, es posible que DRL reduzca el rendimiento de E/S.
3

En los grupos de discos locales, establezca la propiedad localonly y agregue un nico nodo a la lista de nodos del grupo de discos.
Nota Un grupo de discos que se haya configurado slo como local no proporciona

alta disponibilidad ni es accesible globalmente. a. Inicie la utilidad clsetup .


phys-schost# clsetup

b. Seleccione el elemento de men "Device groups and volumes" (Grupos de dispositivos y volmenes). c. Seleccione el elemento de men "Set localonly on a V xV Mdisk group" (Establecer "localonly" en un grupo de dispositivos de V xV M ). d. Siga las instrucciones para establecer la propiedad localonly y especificar el nico nodo que controlar de forma exclusiva el grupo de discos. Slo se permite que un nodo controle cada vez el grupo de discos. Puede cambiar posteriormente el nodo configurado como maestro. e. Cuando haya finalizado, salga de la utilidad clsetup .
Pasos siguientes

Determine el paso que debe realizar a continuacin:

SPARC: Si la funcin de clster de VxVM est habilitada, vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212. Si ha creado grupos de discos que no son locales y la funcin de clster de VxVM no est habilitada, registre los grupos de discos como grupos de dispositivos de Oracle Solaris Cluster. Para ello, vaya a Cmo registrar un grupo de discos en la pgina 210.

S i ha creado grupos de discos slo locales, vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212.

Cmo registrar un grupo de discos


Si la funcin de clster de VxVM no est habilitada, lleve a cabo este procedimiento para registrar los grupos de discos que no sean locales como grupos de dispositivos de Oracle Solaris Cluster.
Nota SPARC: Si la funcin de clster de VxVM est habilitada o si ha creado un grupo

de discos locales, no realice este procedimiento. En su lugar, contine con la seccin Cmo verificar la configuracin del grupo de discos en la pgina 212.
1 2

Convirtase en superusuario en un nodo de clster. Registre el grupo de discos global como grupo de dispositivos de Oracle Solaris Cluster. a. Inicie la utilidad clsetup .
phys-schost# clsetup

b. Seleccione el elemento de men "Device groups and volumes" (Grupos de dispositivos y volmenes). c. Seleccione el elemento de men "Register a V xV Md isk group" (Registrar un grupo de discos de V xV M ). d. Siga las instrucciones para especificar el grupo de discos de V xV Mque desea registrar como grupo de dispositivos de Oracle Solaris Cluster. e. Cuando haya terminado, salga de la utilidad clsetup . f. Exporte y vuelva a importar cada grupo de discos locales.
phys-schost# vxdg deport diskgroup # vxdg import dg

g. Reinicie cada grupo de discos locales.


phys-schost# vxvol -g diskgroup startall

h. Compruebe que cada grupo de discos locales presente el estado "slo local". Si el valor de la propiedad de los indicadores del grupo de discos es nogdl, el grupo de discos se ha configurado correctamente para el acceso slo local.
phys-schost# vxdg lis t diskgroup | grep flags flags: nogdl

Asegrese de que se haya registrado el grupo de dispositivos. Busque en la informacin de dispositivos de disco el nuevo disco que se muestra mediante el comando siguiente.
phys-schost# cldevicegroup status

Pasos siguientes Errores ms frecuentes

Vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212. Desbordamiento de la pila: si se produce un desbordamiento de la pila al establecer en lnea el grupo de recursos, es posible que el valor predeterminado del tamao de la pila de subprocesos sea insuficiente. En cada nodo, agregue la entrada set cl_haci:rm_thread_stacksize=0x tamao al archivo /etc/system , donde tamao hace referencia a un nmero superior a 8000, que es el valor predeterminado. Cambios de configuracin : si cambia la informacin de configuracin para un grupo de dispositivos de VxVM o sus volmenes, deber registrar estos cambios mediante la utilidad clsetup . Entre los cambios de configuracin, se incluyen la adicin o eliminacin de volmenes y el cambio del grupo, el propietario o los permisos de los volmenes existentes. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos para registrar los cambios de configuracin realizados en un grupo de dispositivos de VxVM.

Asignacin de un nmero menor nuevo a un grupo de dispositivos


Si el registro del grupo de dispositivos presenta errores debido a un conflicto de nmero menor con otro grupo de discos, debe asignar al grupo de discos recin creado un nuevo nmero menor que no se est utilizando. Realice este procedimiento para asignar un nuevo nmero menor a un grupo de discos.

1 2

Convirtase en superusuario en un nodo del clster. Determine los nmeros menores que estn en uso.
phys-schost# ls -l /global/.devices/node@ 1/dev/vx/dsk/*

Seleccione otro mltiplo de 1000 que no se est utilizando para utilizarlo como nmero menor bsico del nuevo grupo de discos. Asigne el nuevo nmero menor bsico al grupo de discos.
phys-schost# vxdg reminor diskgroup base-minor-number

Ejemplo 52

Asignacinde un nmero menor nuevo a un grupo de dispositivos


En este ejemplo se usan los nmeros menores 16000-16002y 4000-4001.El comando vxdg reminor asigna el nuevo nmero menor bsico 5000 al nuevo grupo de dispositivos.
phys-schost# ls -l /global/.devices/node@ 1/dev/vx/dsk/* /global/.devices/node@1/dev/vx/dsk/dg1 brw------1 root root 56,16000 Oct 7 11:32 dg1v1 brw------1 root root 56,16001 Oct 7 11:32 dg1v2 brw------1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@1/dev/vx/dsk/dg2 brw------1 root root 56,4000 Oct 7 11:32 dg2v1 brw------1 root root 56,4001 Oct 7 11:32 dg2v2 phys-schost# vxdg reminor dg3 5000

Pasos siguientes

Registre el grupos de discos como grupo de dispositivos de Oracle Solaris Cluster. Para ello, vaya a Cmo registrar un grupo de discos en la pgina 210.

Cmo verificar la configuracin del grupo de discos


Realice este procedimiento en cada nodo del clster. Convirtase en superusuario. Muestre los grupos de discos.
phys-schost# vxdisk lis t

1 2

Muestre los grupos de dispositivos.


phys-schost# cldevicegroup list -v

Compruebe que todos los grupos de discos se hayan configurado correctamen te. Asegrese de que se cumplan los siguientes requisitos:

El grupo de discos raz incluye nicamente discos locales. Todos los grupos de discos y los grupos de discos locales existentes slo se importan en el nodo primario actual.

Compruebe que se hayan iniciado todos los volmenes.


phys-schost# vxprint

Compruebe que todos los grupos de discos se hayan registrado como grupos de dispositivos de Oracle Solaris Cluster y que estn en lnea.
phys-schost# cldevicegroup status

En la salida, no debera mostrarse ningn grupo de discos locales.

(Opcional) Capture la informacin de particin de disco para consultarla en el futuro.


phys-schost# prtvtoc /dev/rdsk/ cNtXdYsZ > filename

Almacene el archivo en una ubicacin que se encuentre fuera del clster. Si realiza cambios en la configuracin del disco, ejecute este comando para capturar la configuracin modificada. Si un disco presenta errores y es necesario sustituirlo, esta informacin puede utilizarse para restaurar la configuracin de particin del disco. Para obtener ms informacin, consulte la pgina de comando man prtvtoc (1M).
8

(Opcional) Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.

M s informacin

Directrices de administracinde grupos de discos de V x V M


Tenga en cuenta las siguientes directrices de administracin de grupos de discos de VxVM en una configuracin de Oracle Solaris Cluster:

grupos de dispositivos de VxVM El software Oracle Solaris Cluster administra los grupos de discos de VxVM que se han registrado como grupos de dispositivos. Una vez que se haya registrado un grupo de discos como grupo de dispositivos, no debe importar o exportar nunca el grupo de discos de VxVM mediante los comandos de VxVM. El software Oracle Solaris Cluster puede administrar todos los casos en los que se deban importar o exportar los grupos de dispositivos. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de administracin de grupos de dispositivos. Grupos de discos locales: el software Oracle Solaris Cluster no administra los grupos de discos locales de VxVM. Utilice los comandos de VxVM para administrar los grupos de discos locales del mismo modo que en un sistema sin clsteres.

Errores ms frecuentes

Si la salida del comando cldevicegroup status incluye grupos de discos locales, los grupos que se muestran no se han configurado correctamente para el acceso slo local. Regrese a Cmo crear un grupo de discos en la pgina 208 para volver a configurar el grupo de discos locales. Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Pasos siguientes

Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223.

Desencapsulacindel disco raz

SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.

Desencapsulacin del disco raz


En esta seccin se describe cmo desencapsular el disco raz en una configuracin de Oracle Solaris Cluster.

Cmo desencapsular el disco raz


Realice este procedimiento para desencapsular el disco raz.

Antes de empezar

Realice las siguientes tareas:

Asegrese de que slo haya sistemas de archivos raz de Solaris en el disco raz. Entre ellos, se incluyen los sistemas de archivos raz (/) y de intercambio, el espacio de nombres de los dispositivos globales, /usr , /var , /opt y /home. R ealice una copia de seguridad de los sistemas de archivos distintos a los sistemas de archivos raz de Solaris que residen en el disco raz y, a continuacin, suprmalos del disco raz.

1 2

Convirtase en superusuario en el nodo que desea desencapsula r. Extraiga todos los grupos de recursos y de dispositivos del nodo.
phys-schost# clnode evacuate from-node

from-node Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos. Determine el nmero de ID del nodo.
phys-schost# clinfo -n

Desmonte el sistema de archivos de los dispositivos globales de este nodo, donde N

hace referenci a al nmero de ID de nodo devuelto en el Paso 3.


phys-schost# um ount /global/.devices/n ode @N

Desencapsulacindel disco raz

Consulte el archivo /etc/vfstab y determine el volumen de V xV Mque se corresponde con el sistema de archivos de los dispositivos globales.
phys-schost# vi /etc/vfstab #device device mount FS fsck #to mount to fsck point type pass # #N O T E :volume rootdisk xN vol (/global/.devices/node@ #partition cNtXdYsZ mount at boot mount options

N) encapsulated

Suprima del grupo de discos raz el volumen de V xV Mque se corresponda con el sistema de archivos de los dispositivos globales.
phys-schost# vxedit -g rootdiskgroup -rf r m rootdis kxNvol Caution No almacene otros datos que no sean las entradas de los dispositivos globales del

sistema de archivos. Todos los datos del sistema de archivos de los dispositivos globales se eliminan al suprimir el volumen de VxVM. Slo se restauran los datos relacionados con las entradas de los dispositivos globales una vez desencapsulado el disco raz.
7

Desencapsule el disco raz.


Nota No acepte la solicitud de cierre del comando. phys-schost# /etc/vx/bin/vxunroot

Consulte la documentacin de VxVM para obtener informacin.


8

Utilice el comando format(1M) para agregar una particin de 512 M B al disco raz a fin de utilizarla para el sistema de archivos de los dispositivos globales.
Consejo Utilice el mismo segmento que se asign al sistema de archivos de los

dispositivos globales antes de encapsular el disco raz, como se especificaen el archivo /etc/vfstab .
9

Configure un sistema de archivos en la particin que ha creado en el Paso 8.


phys-schost# newfs /dev/rdsk/ cNtXdYsZ

10

Determine el nombre de D IDdel dispositivo raz.


phys-schost# cldevice list cNtXdY dN

11

En el archivo /etc/vfstab , sustituya los nombres de ruta de la entrada del sistema de archivos de los dispositivos globales por la ruta de D ID identificada en el Paso 10. La entrada original debera presentar un aspecto similar al siguiente.
xN vol /global/.devices/node@ N ufs 2 no global

phys-schost# vi /etc/vfstab /dev/vx/dsk/rootdisk xN vol /dev/vx/rdsk/rootdisk

La entrada modificada que utiliza la ruta de DID debera presentar un aspecto similar al siguiente.
/dev/did/dsk/d NsX /dev/did/rdsk/d NsX /global/.devices/node@ 12 N ufs 2 no global

Monte el sistema de archivos de los dispositivos globales.


phys-schost# m ount /global/.devices/node @N

13

Desde un nodo del clster, vuelva a llenar el sistema de archivos de los dispositivos globales con los nodos de los dispositivos de disco bsicos y de Solaris Volume Manager.
phys-schost# cldevice populate

Los dispositivos de VxVM se volvern a crear durante el siguiente reinicio.


14

En cada nodo, asegrese de que el comando cldevice populate haya finalizado el procedimiento antes de continuar con el paso siguiente. El comando cldevice populate se ejecuta de forma remota en todos los nodos, aunque se haya emitido slo desde un nodo. Para determinar si ha concluido el procesamiento del comando cldevice populat e, ejecute el comando siguiente en todos los nodos del clster.
phys-schost# ps -ef | grep scgdevs

15

Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6

16

Repita este procedimiento en cada nodo del clster para desencapsular el disco raz en todos ellos.

Creacin de un sistema de archivos del clster

A P T U L O

En este captulo, se describe cmo crear un sistema de archivos del clster.

Creacin de sistemas de archivos del clster


En esta seccin, se describe el procedimiento para crear sistemas de archivos del clster de forma que admitan servicios de datos.

Cmo crear sistemas de archivos del clster


Realice este procedimiento con cada sistema de archivos del clster que desee crear. A diferencia de los sistemas de archivos locales, se puede acceder a los sistemas de archivos del clster desde cualquier nodo del clster global.
Nota Otra opcin es utilizar un sistema de archivos local de alta disponibilidad para admitir

un servicio de datos. Para obtener informacin acerca de la decisin entre crear un sistema de archivos del clster o un sistema de archivos local de alta disponibilidad para admitir un servicio de datos concreto, consulte el manual de dicho servicio. Para obtener informacin general acerca de la creacin de un sistema de archivos local de alta disponibilidad, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide. No se puede agregar un sistema de archivos del clster a un clster de zona.
Antes de empezar

Realice las siguientes tareas:

Asegrese de haber instalado los paquetes de software del SO Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalacin del software en la pgina 61.
217

Creacin de sistemas de archivos del clster

Asegrese de haber establecido el clster o el nodo de clster nuevo, tal como se describe en Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86. S i utiliza un administrador de volmenes, asegrese de que el software de administracin de volmenes est instalado y configurado. Para conocer los procedimientos de instalacin del administrador de volmenes, consulte Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de

las siguientes tareas:


Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.

Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.

Determine las opciones de montaje que se van a utilizar en cada sistema de archivos del clster que desee crear. Consulte Seleccin de las opciones de montaje para los sistemas de archivos del clster en la pgina 50.

Convirtase en superusuario en un nodo de clster. Lleve a cabo este procedimiento desde la zona global si no hay zonas globales configuradas en el clster.
Consejo Para crear sistemas de archivos con mayor rapidez, convirtase en superusuario en

el nodo principal del dispositivo global para el que desea crear un sistema de archivos.
2

Cree un sistema de archivos.


Caution Todos los datos de los discos se destruyen al crear un sistema de archivos.

Compruebe que haya especificado el nombre del dispositivo de disco correcto. Si se especifica un nombre equivocado, podra borrar datos que no tuviera previsto eliminar.

Para crear un sistema de archivos U FS,utilice el comando newfs(1M)


phys-schost# newfs raw-disk-device

La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_disco_bsico . Cada administrador de volmenes aplica sus propias convenciones de asignacin de nombres.
218 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Creacin de sistemas de archivos del clster


Administrador de volmenes Nombre de dispositivo de disco de ejemplo Descripcin

Solaris Volume Manager Veritas Volume Manager Ninguno

/dev/md/nfs/rdsk/d1 /dev/vx/rdsk/oradg/vol01 /dev/global/rdsk/d1s3

Dispositivo de disco bsico d1 dentro del conjunto de discos nfs Dispositivo de disco bsico vol01 dentro del grupo de discos oradg Dispositivo de disco bsico d1s3

Para crear un sistema de archivos Sistema de archivos de Veritas (V xFS), siga los procedimientos que se indican en la documentacin de VxFS.

Cree un directorio de puntos de montaje en cada nodo del clster para el sistema de archivos de dicho clster. Todos los nodos deben tener un punto de montaje, aunque no se acceda al sistema de archivos de clster en un nodo concreto.
Consejo Para facilitar la administracin, cree el punto de montaje en el directorio

/global/ grupo_dispositivos /. Esta ubicacin permite distinguir fcilmente los sistemas de archivos de clster disponibles de forma global de los sistemas de archivos locales.
phys-schost# mkdir -p /global /device-group /mountpoint /

grupo_dispositivos punto_montaje

Nombre del directorio correspondiente al nombre del grupo de dispositivos que contiene el dispositivo. Nombre del directorio en el que se monta el sistema de archivos de clster.

En cada uno de los nodos del clster, agregue una entrada en el archivo /etc/vfstab para el punto de montaj e. Consulte la pgina de comando man vfstab(4) para obtener informacin detallada.
Nota Si hay zonas no globales configuradas en el clster, monte los sistemas de archivos

de clster de la zona global en una ruta del directorio root de la zona global. a. Especifique en cada entrada las opciones de montaje requeridas para el tipo de sistema de archivos que utilice. b. Para montar de forma automtica el sistema de archivos de clster, establezca el campo mountat boot en yes .

Captulo 6 Creacin de un sistema de archivos del clster

219

Creacin de sistemas de archivos del clster

c. Compruebe que la informacin de la entrada /etc/vfstab de clster sea idntica en todos los nodos. d. Compruebe que las entradas del archivo /etc/vfstab los dispositivos en el mismo orden.

de cada sistema de archivos

de cada nodo muestren

e. Compruebe las dependencias de orden de inicio de los sistemas de archivos. Por ejemplo, fjese en la situacin hipottica siguiente: phys-schost-1 monta el dispositivo de disco d0 en /global/oracle/ y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs/ . Con esta configuracin, phys-schost-2 slo puede iniciar y montar /global/oracle/logs/ cuando phys-schost-1 inicie y monte /global/oracle/
5

Ejecute la utilidad de comprobacin de la configuracin en cualquier nodo del clster.


phys-schost# cluster check -k vfstab

La utilidad de comprobacin de la configuracin verifica la existencia de los puntos de montaje. Adems, comprueba que las entradas del archivo /etc/vfstab sean correctas en todos los nodos del clster. Si no hay ningn error, el comando no devuelve nada. Para obtener ms informacin, consulte la pgina de comando man cluster (1CL).
6

Monte el sistema de archivos de clster.


phys-schost# m ount /global /device-group /mountpoint /

Para sistemas de archivos U FS,monte el sistema de archivos de clster desde cualquier nodo del clster. Para V xFS,monte el sistema de archivos de clster desde el elemento maestro del grupo_dispositivos , para asegurarse de que el montaje del sistema de archivos se efecte correctamen te. Asimismo, desmonte un sistema de archivos de VxFS desde el elemento maestro del grupo_dispositivos , para asegurarse de que el sistema de archivos se desmonte correctamente.
Nota Para administrar un sistema de archivos de clster VxFS en un entorno de Oracle

Solaris Cluster, ejecute los comandos de administracin slo desde el nodo principal en que est montado el sistema de archivos de clster VxFS.
7

Compruebe que el sistema de archivos de clster est montado en todos los nodos de dicho clster. Puede utilizar los comandos df o mount para enumerar los sistemas de archivos montados. Para obtener ms informacin, consulte las pginas de comando man df(1M) o mount(1M).

220

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Creacin de sistemas de archivos del clster

Se puede obtener acceso a los sistemas de archivos del clster desde la zona global y desde la zona no global.
Ejemplo 61

Creacin de un sistema de archivos de clster UFS


En el ejemplo siguiente, se crea un sistema de archivos de clster UFS en el volumen de Solaris Volume Manager /dev/md/oracle/rdsk/d1 . Se agrega una entrada para el sistema de archivos de clster en el archivo vfstab de cada nodo. A continuacin, se ejecuta el comando cluster check desde un nodo. Tras comprobar que configuracin se haya efectuado correctamente, se monta el sistema de archivos de clster desde un nodo y se verifica en todos los nodos.
phys-schost# newfs /dev/md/oracle/rdsk/d1 . . . phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging . . . phys-schost# cluster check -k vfstab phys-schost# m ount /global/oracle/d1 phys-schost# mount . . . /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005

Pasos siguientes

Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.

Captulo 6 Creacin de un sistema de archivos del clster

221

222

Creacin de zonas no globales y clsteres de zona

A P T U L O

En este captulo, se describen los siguientes temas:


Configuracin de una zona no global en un nodo del clster global en la pgina 223 Configuracin de un clster de zona en la pgina 229

Configuracin de una zona no global en un nodo del clster global


En esta seccin se describen los siguientes procedimientos para crear una zona no global en un nodo del clster global.

Cmo crear una zona no global en un nodo del clster global en la pgina 223 Cmo configurar un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales en la pgina 227

Cmo crear una zona no global en un nodo del clster global


Realice este procedimiento para cada zona no global que cree en el clster global.
Nota Para obtener informacin completa acerca de la instalacin de una zona, consulte Gua

de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. Puede configurar una zona no global de contenedores Solaris, denominada simplemente zona, en un nodo del clster mientras el nodo se inicia en el modo de clster o en el modo sin clster.
223

Configuracinde una zona no global en un nodo del clster global

S i crea una zona mientras el nodo se inicia en el modo sin clster, el software del clster detecta la zona cuando el nodo se une al clster. S i crea o suprime una zona mientras el nodo se encuentra en el modo de clster, el software del clster cambia de forma dinmica su lista de zonas que pueden controlar los grupos de recursos.

Antes de empezar

Realice las siguientes tareas:

Planifique la configuracin de la zona no global. Tenga en cuenta los requisitos y las restricciones que se describen en Directrices para zonas no globales en un clster global en la pgina 22. Debe disponer de la siguiente informacin:

El nmero total de zonas no globales que va a crear. El adaptador pblico y la direccin IP pblica que utilizar cada zona. La ruta de cada zona. Esta ruta debe ser un sistema de archivos local, no un sistema de archivos del clster ni uno local de alta disponibilidad. Uno o varios de los dispositivos que deben aparecer en cada zona. (Opcional) El nombre que asignar a cada zona.

Si asigna a la zona una direccin IP privada, asegrese que las direcciones IP privadas adicionales que va a configurar se encuentren en el intervalo de direcciones IP privadas del clster. Utilice el comando cluster show-netprops para mostrar la configuracin de red privada actual. Si el intervalo de direcciones IP actual no es suficiente para admitir el uso de las direcciones IP privadas adicionales que va a configurar, consulte los procedimientos descritos en la seccin Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128 para volver a configurar este intervalo.

Nota Puede desactivar funciones de clster de una determinada zona no global, con el fin

de que un usuario root registrado en estas zonas no pueda descubrir ni interrumpir el funcionamiento del clster. Para obtener instrucciones, consulte How to Deny Cluster Services For a Non-Global Zone de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide y How to Allow Cluster Services For a Non-Global Zone de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Para obtener ms informacin, consulte Componentes de zonas de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris.
1

Convirtase en superusuario en el nodo del clster global en el que vaya a crear un nodo que no sea de votacin. Debe encontrarse en la zona global.
Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

224

Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default

Configure, instale e inicie la nueva zona.


Nota Debe establecer la propiedad autoboot en true para admitir el uso de las funciones

de grupos de recursos en un nodo del clster global que no sea de votacin. Siga los procedimientos descritos en la documentacin de Solaris: a. Realice los procedimientos descritos en Captulo 18, Planificaciny configuracin de zonas no globales (tareas) de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. b. Realice los procedimientos descritos en la seccin Instalacin e inicio de zona s de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. c. Realice los procedimientos descritos en la seccin Cmo iniciar una zona de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris.
4

Asegrese de que la zona presente el estado ready (listo).


phys-schost# ID N A M E 0 global 1 my-zone zoneadm list STA TU S running ready -v PATH / /zone-path

(Opcional) En una zona de direcciones IP compartidas, asigne una direccin IP y un nombre de host privado a la zona. El siguiente comando permite seleccionar y asignar una direccin IP disponible del intervalo de direcciones IP privadas del clster. Tambin permite asignar el nombre de host privado (o alias de host) especificado a la zona y a la direccin IP privada indicada.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone

-p zprivatehostname= alias_host nodo

Especifica una propiedad. Especificael nombre de host privado o el alias de host de la zona. El nombre del nodo.

zona
6

El nombre del nodo del clster global que no es de votacin.

Realice una configuracin inicial de zonas internas. Siga los procedimientos descritos en la seccin Configuracin inicial de la zona interna de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. Seleccione uno de los siguientes mtodos:

Inicie una sesin en la zona. Utilice el archivo /etc/sysidcfg

En el nodo que no es de votacin, modifique el archivo nsswitch.conf . Estos cambios permiten a la zona realizar bsquedas de direcciones IP y nombres de host especficos del clster. a. Inicie una sesin en la zona.
phys-schost# zlogin -c zonename

b. Abra el archivo /etc/nsswitch.conf


sczone# vi /etc/nsswitch.conf

para modificarlo.

c. Agregue el conmutador cluster al comienzo de las bsquedas de las entradas hosts y netmasks y, a continuacin, el conmutador files . Las entradas modificadas deberan presentar un aspecto similar al siguiente:
. . . hosts: . . . netmasks: . . . cluster files cluster files nis [NOTFOUND=return] nis [NOTFOUND=return]

d. En las entradas restantes, asegrese de que el conmutador files es el primero que se muestra en la entrada. e. Salga de la zona.
8

Si ha creado una zona de direcciones IP exclusivas, configure los grupos IPM P en cada archivo /etc/hostname. interfaz que se encuentre en esa zona. Debe configurar un grupo de IPMP para cada adaptador de red pblica que se utilice para el trfico de servicios de datos en la zona. Esta informacin no se hereda de la zona global. Consulte Redes pblicas en la pgina 28 para obtener ms informacin sobre cmo configurar grupos IPMP en un clster.

Configure las asignaciones de nombre y direccin para todos los nombres de host lgicos que utilice la zona. a. Agregue las asignaciones de nombre y direccin al archivo /etc/inet/hosts Esta informacin no se hereda de la zona global. en la zona.

b. Si utiliza un servidor de nombres, agregue la asignacin de nombre y direccin.


Pasos siguientes

Para instalar una aplicacin en una zona no global, utilice el mismo procedimiento que usara para un sistema independiente. Consulte la documentacin de instalacin de la aplicacin para obtener informacin sobre los procedimientos para instalar el software en una zona no global. Consulte tambin Cmo aadir y eliminar paquetes y parches en un sistema Solaris con zonas instaladas (mapa de tareas) de Gua de administracin de sistemas:administracin de recursos y contenedoresde Oracle Solaris y zonas de Oracle Solaris. Para instalar y configurar un servicio de datos en una zona no global, consulte el manual de Oracle Solaris Cluster correspondiente a los servicios de datos individuales.

Cmo configurar un recurso de HAStoragePluspara un sistema de archivos del clster utilizado por zonas no globales
Utilice este procedimiento para permitir que una zona no global de la marca native configurada en un nodo del clster utilice un sistema de archivos del clster.
Nota Este procedimiento slo debe utilizarse con la marca native de zonas no globales. No

se puede realizar esta tarea con ninguna otra marca de zona no global como, por ejemplo, la marca solaris8 o cluster que se utiliza para los clsteres de zona.
1

En un nodo del clster, convirtase en superusuario o asuma una funcin que proporcione la autorizacin de R BAC solaris.cluster.modify .
2

Cree un grupo de recursos con una lista de nodos de zonas no globales de la marca native . Utili ce el siguiente comando para crear un grupo de recursos de migracin tras error:
phys-schost# clresourcegroup create -n node:zone[,...] resource-group

-n nodo:zona Especifica los nombres de las zonas no globales de la lista de nodos del grupo de recursos.

grupo_recursos El nombre del grupo de recursos que ha creado.

Utili ce el siguiente comando para crear un grupo de recursos escalable.


phys-schost# clresourcegroup create -S -n node:zone[,...] resource-group

-S Especifica que el grupo de recursos es escalable.


3

Registre el tipo de recurso de HAStoragePlus.


phys-schost# clresourcetype register SUNW.HAStoragePlus

En cada nodo del clster global en el que resida una zona no global de la lista de nodos, agregue la entrada del sistema de archivos del clster al archivo /etc/vfstab . Las entradas del archivo /etc/vfstab de un sistema de archivos del clster deben contener la palabra clave global en las opciones de montaje. Consulte Sample Entries in /etc/vfstab for Cluster File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.

Cree un recurso de HAStoragePlus y defina los puntos de montaje del sistema de archivos.
phys-schost# clresource create -g resource-group -t SUN W .H AStoragePlus \ -p FileSystemMountPoints=" mount-point-list" hasp-resource

-g grupo_recursos Especificael nombre del grupo de recursos al que se ha agregado el nuevo recurso. -p FileSystemMountPoints="lista_puntos_montaje" Especifica uno o varios puntos de montaje del sistema de archivos para el recurso. recurso_hasp El nombre del recurso de HAStoragePlus que ha creado. El recurso creado presenta el estado habilitado.
6

Agregue un recurso a grupo_recursosy establezca una dependencia para el recurso en recurso_hasp. Si va a agregar ms de un recurso al grupo de recursos, utilice un comando distinto para cada uno de ellos.
phys-schost# clresource create -g resource-group -t resource-type \ -p Network_resources_used= hasp-resource resource

-t tipo_recurso Especificael tipo para el que ha creado el recurso. -p Network_resources_used=recurso_hasp Indica que el recurso presenta una dependencia en el recurso de HAStoragePlus recurso_hasp.

Configuracinde un clster de zona

recurso El nombre del recurso que ha creado.


7

Establezca en lnea y con el estado administrado el grupo de recursos que contiene el recurso HAStoragePlus.
phys-schost# clresourcegroup online -M resource-group

de

-M Indica que el recurso est administrado.


Ejemplo 71

Configuracinde un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales
En el siguiente ejemplo, se crea un grupo de recursos de migracin tras error, cfs-rg , para administrar el servicio de datos HA-Apache. La lista de nodos del grupo de recursos contiene dos zonas no globales, sczone1 en phys-schost-1 y sczone1 en phys-schost-2 . El grupo de recursos contiene un recurso de HAStoragePlus, hasp-rs , y un recurso de servicio de datos, apache-rs . El punto de montaje del sistema de archivos es /global/localfs/apache .

phys-schost-1# phys-schost-1#

clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 clresourcetype register SUNW.HAStoragePlus

cfs-rg

Add the cluster file system entry to the /etc/vfstab file on phys-schost1 phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global Add the cluster file system entry to the /etc/vfstab file on phys-schost2 phys-schost-2# vi /etc/vfstab . . . phys-schost-1# clresource create -g cfs-rg -t SUNW .H AStoragePlus \ -p FileSystemMountPoints="/global/local-fs/apache" hasp-rs phys-schost-1# clresource create -g cfs-rg -t SU N W .apache \ -p Network_resources_used=hasp-rs apache-rs phys-schost-1# clresourcegroup online -M cfs-rg

Configuracin de un clster de zona


Esta seccin proporciona procedimientos para configurar un clster de zonas no globales de contenedores Solaris, denominado clster de zona.

Configuracinde un clster de zona

Informacin general de la utilidad clzonecluster en la pgina 230 Establecimiento del clster de zona en la pgina 230 Adicin de sistemas de archivos a un clster de zona en la pgina 240

Adicin de dispositivos de almacenamiento a un clster de zona en la pgina 248

Informacin general de la utilidad clzonecluster


La utilidad clzonecluster crea, modifica y suprime un clster de zona. La utilidad clzonecluster administra de forma activa un clster de zona. Por ejemplo, la utilidad clzonecluster inicia y detiene un clster de zona. Los mensajes de progreso de la utilidad clzonecluster se transfieren a la consola, pero no se guardan en un archivo de registro. Esta utilidad funciona en los mismos niveles de mbito, del mismo modo que la utilidad zonecfg :

El mbito de clster afecta a todo el clster de zona. El mbito de nodo slo afecta al nodo del clster de zona que se haya especificado. El mbito de recurso afecta a un nodo especfico o a todo el clster de zona en funcin del mbito indicado en el formulario de mbito de recurso. Slo se puede acceder a la mayora de los recursos desde el mbito de nodo. Los siguientes indicadores identifican el mbito:
clzc: zoneclustername:resource > clzc: zoneclustername :node: resource > cluster-wide setting node-specificsetting

Puede especificar cualquier parmetro de recurso de zonas de Solaris, as como parmetros especficos de los clster de zona, mediante la utilidad clzonecluster . Para obtener informacin sobre los parmetros que puede establecer en un clster de zona, consulte la pgina de comando man clzonecluster (1CL). Puede encontrar informacin adicional sobre los parmetros de recursos de zonas de Solaris en la pgina de comando man zonecfg (1M).

Establecimiento del clster de zona


En esta seccin se describe cmo configurar un clster de zonas no globales.

Cmo preparar Trusted Extensions para utilizar con clsteres de zona en la pgina 230 Cmo crear un clster de zona en la pgina 233

Cmo preparar Trusted Extensions para utilizar con clsteres de

zona Este procedimiento prepara el clster global para que utilice la funcin Trusted
Extensions de Oracle Solaris con clsteres de zona y habilita la funcin Trusted Extensions. Si no tiene pensado habilitar Trusted Extensions, vaya a Cmo crear un clster de zona en la pgina 233.

Realice este procedimiento en cada nodo del clster global.

Antes de empezar

Realice las siguientes tareas:

Compruebe que el sistema operativo Solaris est instalado para admitir el uso del software Trusted Extensions. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. El software Trusted Extensions no se incluye en el grupo de software de usuario final de Solaris. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster.

Compruebe que disponga de un servicio de asignacin de nombres LDAP configurado para que Trusted Extensions pueda utilizarlo. Consulte el Captulo 5, Configuring LDAP for Trusted Extensions (Tasks) de Oracle Solaris Trusted Extensions Configuration Guide Revise las directrices de Trusted Extensions en un clster de zona. Consulte Directrices para Trusted Extensions en un clster de zona en la pgina 45.

1 2

Convirtase en superusuario en un nodo del clster global. Inhabilite las secuencias de comandos zoneshare y zoneunshare de Trusted Extensions. Las secuencias de comandoszoneshare y zoneunshare de Trusted Extensions permiten exportar directorios de inicio en el sistema. Una configuracin de Oracle Solaris Cluster no admite esta funcin. Inhabilite esta funcin sustituyendo cada secuencia de comandos con un vnculo simblico a la utilidad /bin/true . Hgalo en todos los nodos de clster global.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true

Configure todas las direcciones IP compartidas de nombres de host lgicos que estn en el clster global. Consulte Run the txzonemgr Script de Oracle Solaris Trusted Extensions Configuration Guide.

Compruebe que la consola de administracin se haya definido en el archivo /etc/security/tsol/tnrhdb como admin_low.
ipaddress:admin_low

Compruebe que ningn archivo /etc/nombre_host. interfaz contenga la opcin -failover en una entrada. Elimine la opcin -failover en todas las entradas que la contengan.

Modifique el archivo /etc/security/tsol/tnrhdb para autorizar la comunicacin con componentes de clster globales. Utilice el asistente para plantillas de seguridad de Solaris Management Console como se explica en How to Construct a Remote Host Template de Oracle Solaris Trusted Extensions Administrator s Procedurespara llevar a cabo las tareas siguientes.

Cree una entrada para direcciones IP utilizadas por componentes de clster y asigne una plantilla de CIPSO a cada entrada. Agregue entradas para cada una de las direcciones IP siguientes que figuren en el archivo /etc/inet/hosts del nodo del clster global:

Cada direccin IP privada de nodo del clster global Todas las direcciones IP cl_privnet del clster global Cada direccin IP pblica de nombre de host lgico para el clster global Cada direccin IP pblica de direcciones compartidas para el clster global

Las entradas tendrn un aspecto similar al siguiente.


127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso . . .

Agregue una entrada para convertir en predeterminada la plantilla interna.


0.0.0.0:internal

Para obtener ms informacin sobre plantillas de CIPSO, consulte Configure the Domain of Interpretation de Oracle Solaris Trusted Extensions Configuration Guide.
7

Habilite el servicio SM Fde Trusted Extensions y reinicie el nodo del clster global.
phys-schost# svcadm enable -s svc:/system /labeld:default phys-schost# shutdown -g0 -y -i6

Para obtener ms informacin, consulte Enable Trusted Extensions de Oracle Solaris Trusted Extensions Configuration Guide.
8

Compruebe que el servicio SM Fde Trusted Extensions se haya habilitado.


phys-schost# svcs labeld STATE S T IM E F M R I online 17:52:55 svc:/system/labeld:default 9

Repita del Paso 1 al Paso 8 en el resto de los nodos del clster global. Si el servicio SMF est habilitado en todos los nodos de clster global, efecte los dems pasos de este procedimiento en cada nodo del clster global. Agregue la direccin IP del servidor LDA P habilitado para Trusted Extensions al archi vo/etc/inet/hosts de cada nodo del clster global. La zona global y los nodos de clster de zona utilizan el servidor LDAP.

10

11

Habilite el inicio de sesin remoto por parte del servidor LDA P en el nodo del clster global. a. En el archivo /etc/default/login b. Habilite el inicio de sesin remoto.
phys-schost# svcadm enable rlogin

, comente la entrada C O N S O.L E

c. Modifique el archivo /etc/pam.conf . Modifique las entradas de administracin de cuentas. Para ello, agregue un tabulador y escriba allow_remote o allow_unlabeled, como se muestra a continuacin.
other other 12 account requisite account required pam_roles.so.1 pam_unix_account.so.1 Tab allow_remote Tab allow_unlabeled

Modifique el archivo /etc/nsswitch.ldap .

Compruebe que las entradas de bsqueda passwd y group tengan primero files en el orden de bsqueda.
. . . passwd: group: . . . files files ldap ldap

Compruebe que las entradas de bsqueda hosts y netmasks tengan primero cluster en el orden de bsqueda.
. . . hosts: . . . netmasks: . . . cluster cluster files files ldap ldap

13

Convierta el nodo del clster global en cliente LDAP. Consulte Make the Global Zone an LDAP Client in Trusted Extensions de Oracle Solaris Trusted Extensions Configuration Guide. Agregue usuarios de Trusted Extensions al archivo /etc/security/tsol/tnzonecfg . Utilice el asistente para agregar usuarios de Solaris Management Console como se explica en Creating Roles and Users in Trusted Extensions de Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases. Cree el clster de zona. Consulte Cmo crear un clster de zona en la pgina 233.

14

Pasos siguientes

Cmo crear un clster de zona


Realice este procedimiento para crear un clster de zonas no globales.
Antes de empezar

Cree un clster global. Consulte el Captulo 3, Establecimiento del clster global.

Lea las directrices y los requisitos para crear un clster de zona. Consulte la seccin clsteres de zona en la pgina 43. Si el clster de zona va a utilizar Trusted Extensions, compruebe que Trusted Extensions se haya configurado y habilitado como se explica en Cmo preparar Trusted Extensions para utilizar con clsteres de zona en la pgina 230. Debe disponer de la siguiente informacin:

El nombre exclusivo que se va a asignar al clster de zona.


Nota Para configurar un clster de zona cuando Trusted Extensions est habilitado,

debe utilizarse el nombre de la etiqueta de seguridad de Trusted Extensions que el clster de zona utiliza como nombre. Cree un clster de zona diferente para cada etiqueta de seguridad de Trusted Extensions que vaya a utilizar.

La ruta de zona que los nodos del clster de zona utilizarn. Para obtener ms informacin, consulte la descripcin de la propiedad zonepath en Tipos de propiedades y recursos de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. El nombre de cada nodo del clster global en el que se va a crear un nodo del clster de zona. El nombre de host pblico (o el alias de host) de la zona que asigne a cada nodo del clster de zona. La direccin IP de red pblica que utilice cada nodo del clster de zona. El nombre del adaptador de red pblica que cada nodo del clster de zona utilice para conectarse a la red pblica.

Convirtase en superusuario en un nodo miembro activo de un clster global.


Nota Realice todos los pasos de este procedimiento desde un nodo del clster global.

Asegrese de que el nodo del clster global se encuentre en el modo de clster. Si hay algn nodo en el modo sin clster, los cambios que realice se propagarn cuando el nodo se restablezca en el modo de clster. Por lo tanto, puede crear un clster de zona, incluso si algunos nodos del clster global se encuentran en el modo sin clster. Cuando estos nodos se restablezcan en el modo de clster, el sistema realizar las tareas de creacin de clster de zona en estos.
phys-schost# clnode status === Cluster Nodes === --- Node Status --Node N am e Status

--------phys-schost-2 phys-schost-1 3

------

Online Online

Cree el clster de zona. Tenga en cuenta las siguientes instrucciones especiales:

Si Trusted Extensions est habilitado, zoneclustername debe tener el mismo nombre que una etiqueta de seguridad de Trusted Extensions que tenga los niveles de seguridad que desee asignar al clster de zona. Estas etiquetas de seguridad se configuran en los archivos /etc/security/tsol/tnrhtp del clster global. Las zonas raz dispersas se crean de forma predeterminada. Para crear zonas raz completas, agregue la opcin -b al comando create .
configure zoneclustername

phys-schost-1# clzonecluster clzc: zoneclustername> create

Set the zone path for the entire zone cluster clzc: zoneclustername> set zonepath=/zones/ zoneclustername Add the first node and specify node-specificsettings clzc: zoneclustername> add node clzc: zoneclustername :node> set physical-host= baseclusternode1 clzc: zoneclustername :node> set hostname=hostname1 clzc: zoneclustername :node> add net clzc: zoneclustername :node:net> set address=public_netaddr clzc: zoneclustername :node:net> set physical= adapter clzc: zoneclustername :node:net> end clzc: zoneclustername :node> end Add authorization for the public-network addressesthat the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc: zoneclustername> add sysid clzc: zoneclustername :sysid> set root_password=encrypted_password clzc: zoneclustername :sysid> end Save the configuration and exit the utility clzc: zoneclustername> commit clzc: zoneclustername> exit 4

Si Trusted Extensions est habilitado, defina el sistema de archivos /var/tsol/doors la propiedad del servicio de nombres en N O N. E
phys-schost-1# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername :fs> set dir=/var/tsol/doors

y defina

clzc: zoneclustername clzc: zoneclustername clzc: zoneclustername clzc: zoneclustername

:fs> :fs> :fs> :fs>

set special=/var/tsol/doors set type=lofs add options ro end

clzc: zoneclustername> commit clzc: zoneclustername> exit 5

(Opcional) Agregue uno o varios nodos adicionales al clster de zona.


phys-schost-1# clzonecluster configure zoneclustername clzc: zoneclustername> add node clzc: zoneclustername :node> set physical-host= baseclusternode2 clzc: zoneclustername :node> set hostname=hostname2 clzc: zoneclustername :node> add net clzc: zoneclustername :node:net> set address=public_netaddr clzc: zoneclustername :node:net> set physical= adapter clzc: zoneclustername :node:net> end clzc: zoneclustername :node> end clzc: zoneclustername> commit clzc: zoneclustername> exit

Si Trusted Extensions est habilitado, en cada nodo del clster global agregue o modifique las entradas siguientes en el archivo /zonas/ nombre_clster_zona/root/etc/sysidcfg .

phys-schost-1# clzonecluster configure zoneclustername clzc: zoneclustername> add sysid clzc: zoneclustername :sysid> set name_service=LDAP clzc: zoneclustername :sysid> set domain_name=domainorg.domainsuffix clzc: zoneclustername :sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc: zoneclustername :sysid> set proxy_password="proxypassword" clzc: zoneclustername :sysid> set profile= ldap-server clzc: zoneclustername :sysid> set profile_server= txldapserver_ipaddress clzc: zoneclustername :sysid> end clzc: zoneclustername> commit clzc: zoneclustername> exit 7

Compruebe la configuracin del clster de zona. El subcomando verify comprueba la disponibilidad de los recursos especificados.Si el comando clzonecluster verify se ejecuta satisfactoriamente, no se generar ninguna salida.
phys-schost-1# clzonecluster phys-schost-1# clzonecluster === Zone Clusters === --- Zone Cluster Status --N am e ---zone Node N am e --------basenode1 basenode2 Zone HostName Status -----------------zone-1 Offline zone-2 Offline Zone Status ----------Configured Configured verify zoneclustername status zoneclustername

Instale el clster de zona.


phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commandsto complete on a ll the nodes

of the zone cluster

"zoneclustername". . .

Inicie el clster de zona.


Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commandsto complete on all the nodes of the zone cluster "zoneclustername". . .

10

Si utiliza Trusted Extensions, complete las asignaciones de direcciones IP para el clster de zona. Efecte este paso en todos los nodos del clster de zona. a. En un nodo del clster global, visualice el ID del nodo.
phys-schost# cat /etc/cluster/nodeid N

b. Inicie sesin en un nodo de clster de zona en el mismo nodo del clster global. Compruebe que el servicio SMF se haya importado y que todos los servicios estn en funcionamiento antes de iniciar una sesin. c. Determine las direcciones IP utilizadas por este nodo de clster de zona para la interconexin privada. El software de clster asigna automticamente estas direcciones IP cuando el software de clster configura un clster de zona. En la salida de ifconfig -a, busque la interfaz lgica de clprivnet0 que pertenezca al clster de zona. El valor de inet es la direccin IP que se asign para permitir el uso de la interconexin privada de clster por parte de este clster de zona.

zc1# ifconfig

-a

lo0:3: flags=20010008c9<U P,LO O PBA CK ,RU N N IN G ,N O ARP,M U LT IC AST,IPv4,V mtu IRTU 8232 AL> index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<U P,BRO AD CAST,RU N N IN G,M U LT ICA ST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags= 9040843<U P,BR O A D C A ST ,R U N N IN G ,M U LT IC A ST ,D EPR EC A T ED ,IPv4,N O mtu FA 1500 ILO V index ER > 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<U P,BRO A D CAST,RU N N IN G,M U LT IC AST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<U P,B R O AD C A ST,R U N N IN G,M U LTIC AST,M U LTI_B C A ST ,PR IV mtu AT1500 E,IPv4> index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3 : flags=1009843<U P,B R O AD C A ST,R U N N IN G,M U LTIC AST,M U LTI_B C A ST ,PR IV mtu AT1500 E,IPv4> index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23

d. Agregue al archivo /etc/inet/hosts nodo de clster de zona.

del nodo de clster de zona las direcciones IP del

El nombre de host de la interconexin privada es clusternode N-priv , donde N corresponde al ID del nodo del clster global
172.16.0.22 clusternod eN-priv

Cada recurso net especificado en el comando clzonecluster

al crear el clster de zona

e. Repita el procedimiento en los dems nodos de clster de zona.


11

Modifique el archivo /etc/security/tsol/tnrhdb con componentes de clster de zona.

para autorizar la comunicacin

Utilice el asistente para plantillas de seguridad de Solaris Management Console como se explica en How to Construct a Remote Host Template de Oracle Solaris Trusted Extensions Administrator s Procedurespara llevar a cabo las tareas siguientes.

Cree una entrada para direcciones IP utilizadas por componentes de clster de zona y asigne una plantilla de CIPSO a cada entrada. Agregue entradas para cada una de las direcciones IP siguientes que figuren en el archivo /etc/inet/hosts del nodo de clster de zona:

Cada direccin IP privada de nodo de clster de zona Todas las direcciones IP cl_privnet del clster de zona Cada direccin IP pblica de nombre de host lgico para el clster de zona Cada direccin IP pblica de direcciones compartidas para el clster de zona

Las entradas tendrn un aspecto similar al siguiente.


127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso . . .

Agregue una entrada para convertir en predeterminada la plantilla interna.


0.0.0.0:internal

Para obtener ms informacin sobre plantillas de CIPSO, consulte Configure the Domain of Interpretation de Oracle Solaris Trusted Extensions Configuration Guide.
12

Una vez modificados todos los nodos de clster de zona, reinicie los nodos de clster global para inicializar los cambios en los archivos /etc/inet/hosts de clster de zona.
phys-schost# init -g0 -y -i6

13

Habilite el acceso de D N Sy rlogin en los nodos de clster de zona. Ejecute los comandos siguientes en cada nodo del clster de zona.
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot

Ejemplo 72

Archivo de configuracinpara crear un clster de zona


En el siguiente ejemplo se muestra el contenido de un archivo de comandos que puede utilizarse con la utilidad clzonecluster para crear un clster de zona. El archivo contiene la serie de comandos clzonecluster que debe introducir manualmente. En la siguiente configuracin, el clster de zona sczone se ha creado en el nodo phys-schost1 del clster global. El clster de zona utiliza /zones/sczone como ruta de zona y la direccin IP pblica 172.16.2.2.El primer nodo del clster de zona tiene asignado el nombre de host zc-host-1 y utiliza la direccin de red 172.16.0.1 y el adaptador bge0. El segundo nodo del clster de zona se ha creado en el nodo phys-schost-2 del clster global. Este segundo nodo del clster de zona tiene asignado el nombre de host zc-host-2 y utiliza la direccin de red 172.16.0.2 y el adaptador bge1.
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit

Ejemplo 73

Creacin de un clster de zona mediante un archivo de configuracin


En el siguiente ejemplo, se muestran los comandos necesarios para crear el nuevo clster de zona sczone en el nodo del clster global phys-schost-1 mediante el archivo de configuracin sczone-config . Los nombres de host de los nodos del clster de zona son zchost-1 y zc-host-2 .
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commandsto complete on a ll the nodes of the

zone cluster "sczone ". . . phys-schost-1# clzonecluster boot sczone Waiting for zone boot commandsto complete on all the nodes of the zone cluster "sczone ". . . phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --N am e ---sczone Node N am e --------phys-schost-1 phys-schost-2 Zone HostName ------------zc-host-1 zc-host-2 Status -----Offline Offline Zone Status ----------Running Running

Pasos siguientes

Para agregar un sistema de archivos al clster de zona, vaya a Adicin de sistemas de archivos a un clster de zona en la pgina 240. Para agregar dispositivos de almacenamiento global al clster de zona, vaya a Adicin de dispositivos de almacenamiento a un clster de zona en la pgina 248.

Adicin de sistemas de archivos a un clster de zona


En esta seccin se describen los procedimientos para agregar sistemas de archivos para que los utilice el clster de zona. Una vez que el sistema de archivos se haya agregado al clster de zona y se haya establecido en lnea, se autorizar su uso en ese clster. Para montar el sistema de archivos para su uso, configrelo mediante los recursos del clster como, por ejemplo, SUNW.HAStoragePlus o SUNW.ScalMountPoint.
Nota No se puede utilizar el comando clzonecluster

para agregar un sistema de archivos local que se haya montado en un nodo del clster global, en un clster de zona. En su lugar, utilice el comando zonecfg del mismo modo que en un sistema independiente. El sistema de archivos local no debera estar bajo el control del clster. En esta seccin se describen los siguientes procedimientos:

Cmo agregar un sistema de archivos local a un clster de zona en la pgina 241 Cmo agregar un grupo de almacenamiento ZFS a un clster de zona en la pgina 242 Cmo agregar un sistema de archivos compartidos QFS a un clster de zona en la pgina 244 Cmo agregar un sistema de archivos de clster a un clster de zona en la pgina 246

Adems, si desea configurar un grupo de almacenamiento ZFS para que proporcione alta disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.

Cmo agregar un sistema de archivos local a un clster de zona


Realice este procedimiento para agregar un sistema de archivos del clster global a fin de que lo utilice el clster de zona.
Nota Para agregar un grupo ZFS a un clster de zona, realice los procedimientos descritos en

la seccin Cmo agregar un grupo de almacenamiento ZFS a un clster de zona en la pgina 242. Asimismo, para configurar un grupo de almacenamiento ZFS para que proporcione alta disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.
1

Convirtase en superusuario en un nodo del clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo del clster global.

En el clster global, cree el sistema de archivos que desee utilizar en el clster de zona. Asegrese de que el sistema de archivos se haya creado en los discos compartidos.

Agregue el sistema de archivos a la configuracin del clster de zona.


phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername :fs> set dir= mountpoint clzc: zoneclustername :fs> set special= disk-device-name clzc: zoneclustername :fs> set raw=raw-disk-device-name clzc: zoneclustername :fs> set type=FS-type clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

dir= punto_montaje Especificael punto de montaje del sistema de archivos. special= nombre_dispositivo_disco Especificael nombre del dispositivo de disco. raw=nombre_dispositivo_disco_bsico Especificael nombre del dispositivo de disco bsico. type=tipo_FS Especificael tipo del sistema de archivos.
Nota Habilite el registro sistemas de archivos UFS y VxFS.

Compruebe que se haya agregado el sistema de archivos.


phys-schost# clzonecluster show -v zoneclustername

Ejemplo 74

Adicinde un sistema de archivos local a un clster de zona


En este ejemplo, se agrega el sistema de archivos local /global/oracle/d1 el clster de zona sczone .
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: cluster-control: . . . show -v sczone fs /global/oracle/d1 /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 ufs [logging] [true]

para que lo utilice

Pasos siguientes

Configure el sistema de archivos para que proporcione alta disponibilidad mediante un recurso de HAStoragePlus. Este recurso administra el montaje del sistema de archivos en el nodo del clster de zona que aloja actualmente las aplicaciones que se han configurado para que utilicen el sistema de archivos. Consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.

Cmo agregar un grupo de almacenamiento Z F Sa un clster de zona


Realice este procedimiento para agregar un conjunto de almacenamiento ZFS a fin de que lo utilice un clster de zona.
Nota Para configurar un grupo de almacenamiento ZFS para que proporcione alta

disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.
1

Convirtase en superusuario en un nodo del clster global que aloje el clster de zona.

Nota Realice todos los pasos de este procedimiento desde un nodo de la zona global. 2

Cree el grupo de almacenamiento ZFSen el clster global.


Nota Asegrese de que el grupo est conectado a los discos compartidos que estn conectados

a su vez a todos los nodos del clster de zona. Consulte Gua de administracin de Oracle Solaris ZFS para obtener informacin sobre los procedimientos de creacin de un grupo ZFS.
3

Agregue el grupo a la configuracin del clster de zona.


phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add dataset clzc: zoneclustername :dataset> set n a m e= ZFSpoolname clzc: zoneclustername :dataset> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

Compruebe que se haya agregado el sistema de archivos.


phys-schost# clzonecluster show -v zoneclustername

Ejemplo 75

Adicinde un grupo de almacenamiento Z FSa un clster de zona


En el siguiente ejemplo, se muestra el grupo de almacenamiento ZFSzpool1, que se ha agregado al clster de zona sczone .
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster . . . Resource Name: name: . . . show -v sczone dataset zpool1

Pasos siguientes

Configure el grupo de almacenamiento ZFS para que proporcione alta disponibilidad mediante un recurso de HAStoragePlus. Este recurso administra el montaje de los sistemas de archivos del grupo en el nodo del clster de zona que aloja actualmente las aplicaciones que se han configurado para que utilicen el sistema de archivos. Consulte Enabling Highly Available

Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.

Cmo agregar un sistema de archivos compartidos Q FSa un clster

de zona

Realice este procedimiento para agregar un sistema de archivos compartidos Sun QFS a fin de que lo utilice un clster de zona.
Nota Actualmente slo se admite el uso de sistemas de archivos compartidos QFS en los

clsteres configurados con Oracle Real Application Clusters (RAC). En los clsteres que no estn configurados con Oracle RAC, puede utilizar un sistema de archivos QFS de un solo equipo que se haya configurado como sistema de archivos local de alta disponibilidad.
1

Convirtase en superusuario en un nodo de votacin de clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo de votacin de

clster global.
2

En el clster global, configure el sistema de archivos compartidos Q FS que desee utilizar en el clster de zona. Siga los procedimientos para sistemas de archivos compartidos descritos en Configuring Sun QFS File Systems With Sun Cluster. En cada nodo del clster global que aloje un nodo del clster de zona, agregue una entrada al archivo /etc/vfstab del sistema de archivos que desee montar en el clster de zona.
phys-schost# vi /etc/vfstab

Si se agrega un sistema de archivos compartidos Q FS como un sistema de archivos de bucle invertido a un clster de zona, vaya al Paso 6. Agregue el sistema de archivos a la configuracin del clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername:fs> set dir=mountpoint clzc: zoneclustername :fs> set special=QFSfilesystemname clzc: zoneclustername :fs> set type=samfs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

Vaya al Paso 7.
6

Configure el sistema de archivos Q FS como sistema de archivos de bucle invertido para el clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs

clzc: zoneclustername :fs> set dir= lofs-mountpoint clzc: zoneclustername :fs> set special= QFS-mountpoint clzc: zoneclustername :fs> set type=lofs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit 7

Compruebe que se haya agregado el sistema de archivos.


phys-schost# clzonecluster show -v zoneclustername

Ejemplo 76

Adicinde un sistema de archivos compartidos Q FScomo montaje directo en un clster de zona


En el siguiente ejemplo, se muestra el sistema de archivos compartidos Data-cz1, que se ha agregado al clster de zona sczone. En el clster global, elpunto de montaje del sistema de archivos es /zones/sczone/root/db_qfs/Data1 , donde /zones/sczone/root/ es la ruta raz de la zona. En el nodo del clster de zona, el punto de montaje del sistema de archivos es /db_qfs/Data1 .
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: . . . show -v sczone fs /db_qfs/Data1 Data-cz1 samfs []

Ejemplo 77

Adicinde un sistema de archivos compartidos Q FScomo sistema de archivos de bucle invertido en un clster de zona
En el siguiente ejemplo, se muestra el sistema de archivos compartidos con mountpoint/db_qfs/Data1, que se ha agregado al clster de zona sczone. El sistema de archivos est disponible para un clster de zona mediante el mecanismo de montaje de

bucle invertido en el archivo mountpoint/ db_qfs/Data -cz1 .

phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: cluster-control: . . . show -v sczone fs /db_qfs/Data1 Data-cz1 lofs [] [true]

Cmo agregar un sistema de archivos de clster a un clster de zona


Realice este procedimiento para agregar un sistema de archivos de clster a fin de que lo utilice un clster de zona.
1

Convirtase en superusuario en un nodo de votacin de clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo de votacin de

clster global.
2

En el clster global, configure el sistema de archivos compartidos de clster que desee utilizar en el clster de zona. En cada nodo del clster global que aloje un nodo del clster de zona, agregue una entrada al archivo /etc/vfstab del sistema de archivos que desee montar en el clster de zona.
phys-schost# vi /etc/vfstab . . . /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging

Configure el sistema de archivos de clster como sistema de archivos de bucle invertido para el clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername :fs> set dir=zonecluster-lofs-mountpoint

clzc: zoneclustername :fs> set special=globalcluster-mountpoint clzc: zoneclustername :fs> set type=lofs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

dir=zonecluster-lofs-mountpoint Especificael punto de montaje de sistema de archivos para LOFS con el fin de que el clster de zona pueda acceder al sistema de archivos de clster. special=globalcluster-mountpoint Especificael punto de montaje de sistema de archivos del sistema de archivos de clster original en el clster global. Para obtener ms informacin sobre cmo crear sistemas de archivos de bucle invertido, consulte How to Create and Mount an LOFS File System de System Administration Guide: Devices and File Systems.
5

Compruebe que se haya agregado el sistema de archivos LOFS.


phys-schost# clzonecluster show -v zoneclustername

Ejemplo 78

Adicinde un sistema de archivos de clster a un clster de zona


El ejemplo siguiente muestra cmo agregar un sistema de archivos de clster con punto de montaje /global/apache a un clster de zona. El sistema de archivos est disponible para un clster de zona mediante el mecanismo de montaje de bucle invertido en el archivo /zone/apache .
phys-schost-1# vi /etc/vfstab #device device mount FS fsck #to mount to fsck point type pass # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 mount at boot mount options

/global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: show -v sczone fs /zone/apache /global/apache lofs []

. . .

cluster-control:

true

Pasos siguientes

Configure el sistema de archivos de clster para que est disponible en el clster de zona mediante un recurso de HAStoragePlus. El recurso de HAStoragePlus se administra mediante el montaje del sistema de archivos en el clster global y, posteriormente mediante un montaje en bucle invertido en los nodos de clster de zona que alojan las aplicaciones configuradas para utilizar el sistema de archivos. Para obtener ms informacin, consulte Configuring an HAStoragePlus Resource for Cluster File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.

Adicin de dispositivos de almacenamiento a un clster de zona


En esta seccin se describe cmo agregar dispositivos de almacenamiento globales para su uso directo por parte de un clster de zona. Los dispositivos globales son aquellos a los que puede acceder ms de un nodo del clster, un nodo cada vez o varios simultneamente. Una vez agregado un dispositivo a un clster de zona, ste slo estar visible en ese clster. Esta seccin incluye los procedimientos siguientes:

Cmo agregar un metadispositivo individual a un clster de zona (Solaris Volume Manager) en la pgina 248 Cmo agregar un conjunto de discos a un clster de zona (Solaris Volume Manager) en la pgina 250 Cmo agregar un dispositivo DID a un clster de zona en la pgina 251 Cmo agregar un dispositivo de disco bsico a un clster de zona en la pgina 252

Cmo agregar un metadispositivo individual a un clster de zona

(Solaris Volume Manager)

Realice este procedimiento para agregar un metadispositivo individual de un conjunto de discos de &SolarisVolumeManager a un clster de zona.
1

Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el conjunto de discos que contiene el metadispositivo que se va a agregar al clster de zona y determine si se encuentra en lnea.
phys-schost# cldevicegroup status

Si el conjunto de discos que va a agregar se encuentra fuera de lnea, establzcalo en lnea.


phys-schost# cldevicegroup online diskset

Determine el nmero de conjunto que se corresponda con el conjunto de discos que se va a agregar.
phys-schost# ls -l /dev/md/ diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/ setnumber

Agregue el metadispositivo que utilizar el clster de zona. Debe utilizar una sesin add device diferente para cada entrada set match=.
Nota Se utiliza un asterisco (*) como carcter comodn en el nombre de ruta. phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/diskset/*dsk/metadevice clzc: zoneclustername :device> end clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/shared/setnumber/*dsk/ metadevice clzc: zoneclustername :device> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

match=/dev/md/ conjunto_discos /*dsk/ metadispositivos Especifica la ruta lgica completa del metadispositivo. match=/dev/md/shared/ N/*dsk/ metadispositivo Especifica la ruta fsica completa del nmero del conjunto de discos.
6

Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername

Ejemplo 79

Adicinde un metadispositi vo a un clster de zona


En el siguiente ejemplo, se agrega el metadispositivo d1 del conjunto de discos oraset al clster de zona sczone. El nmero del conjunto de discos es 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone

Cmo agregar un conjunto de discos a un clster de zona (Solaris

Volume Manager)

Realice este procedimiento para agregar un conjunto de discos completo de &SolarisVolumeManager a un clster de zona.
1

Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el conjunto de discos que se va a agregar al clster de zona y determine si se encuentra en lnea.
phys-schost# cldevicegroup status

Si el conjunto de discos que va a agregar se encuentra fuera de lnea, establzcalo en lnea.


phys-schost# cldevicegroup online diskset

Determine el nmero de conjunto que se corresponda con el conjunto de discos que se va a agregar.
phys-schost# ls -l /dev/md/ diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/ setnumber

Agregue el conjunto de discos que utilizar el clster de zona. Debe utilizar una sesin add device diferente para cada entrada set match=.
Nota Se utiliza un asterisco (*) como carcter comodn en el nombre de ruta. phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/diskset/*dsk/* clzc: zoneclustername :device> end clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/shared/setnumber/*dsk/* clzc: zoneclustername :device> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

match=/dev/md/ conjunto_discos /*dsk/* Especifica la ruta lgica de dispositivo completa del conjunto de discos. match=/dev/md/shared/ N/*dsk/* Especifica la ruta fsica completa del nmero del conjunto de discos.
6

Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername

Ejemplo 710

Adicinde un conjunto de discos a un clster de zona


En el siguiente ejemplo, se agrega el conjunto de discos oraset al clster de zona sczone. El nmero del conjunto de discos es 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device > set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone

Cmo agregar un dispositivo D IDa un clster de zona


Realice este procedimiento para agregar un dispositivo DID a un clster de zona.
1

Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el dispositivo D IDque se va a agregar al clster de zona. El dispositivo que se va a agregar debe estar conectado a todos los nodos del clster de zona.
phys-schost# cldevice list -v

Agregue el dispositivo D ID que utilizar el clster de zona.


Nota Se utiliza un asterisco (*) como carcter comodn en el nombre de ruta. phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/did/*dsk/d Ns* clzc: zoneclustername :device> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit

match=/dev/did/*dsk/ dNs* Especifica la ruta completa del dispositivo DID.


4

Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername

Ejemplo 711

Adicinde un dispositivo D IDa un clster de zona


En el siguiente ejemplo, se agrega el dispositivo DID d10 al clster de zona sczone .
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone

Cmo agregar un dispositivo de disco bsico a un clster de zona

Utili ce el comando zonecfg para exportar los dispositivos de disco bsicos (cNtXdYsZ) a un nodo del clster de zona del mismo modo que para otras marcas de zonas no globales. Estos dispositivos no estarn bajo el control del comando clzonecluster , pero se considerarn dispositivos locales del nodo. Consulte Cmo importar dispositivos bsicos y de bloques utilizando zonecfg de Gua de administracin de sistemas:administracin de recursos y contenedores deOracle Solaris y zonas de Oracle Solaris para obtener ms informacin sobre cmo exportar dispositivos de disco bsicos a una zona no global.

Instalacin del mdulo de OracleSolaris Cluster en Sun Management Center

A P T U L O

En este captulo, se proporcionan directrices y procedimientos para instalar el mdulo de Oracle Solaris Cluster en la interfaz grfica de usuario (GUI) de Sun Management Center .

SPA R C : Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center
En esta seccin se proporcionan la informacin y los procedimientos necesarios para instalar el software para el mdulo de Oracle Solaris Cluster en Sun Management Center . El mdulo de Oracle Solaris Cluster para Sun Management Center permite utilizar Sun Management Center para supervisar el clster. La tabla siguiente muestra las tareas que deben efectuarse para instalar el software de mdulos Oracle Solaris Clusterpara Sun Management Center . Realice los procedimientos en el orden indicado.
TA B L A 81 Tarea

Mapa de tareas: instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center
Instrucciones

Instale los paquetes de la consola, el agente y el servidor de Sun Management Center .

Documentacin de Sun Management Center SPARC: Requisitos de instalacin para la supervisin de Oracle Solaris Cluster en la pgina 254 SPARC: Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 255 SPARC: Cmo iniciar Sun Management Center en la pgina 256

Instale los paquetes del mdulo de Oracle Solaris Cluster. Inicie los procesos del agente, la consola y el servidor de Sun Management Center .

253

Agregue cada uno de los nodos del clster al objeto de host del agente de Sun Management Center .

SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center en la pgina 257

254

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

SPA R C Instalacin : del mdulo de OracleSolaris Cluster para Sun Management Center
TA B L A81 Tarea

Mapa de tareas: instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center (Continuacin)
Instrucciones

Cargue el mdulo de Oracle Solaris Cluster para iniciar la supervisin del clster.

SPARC: Cmo cargar el mdulo de Oracle Solaris Cluster en la pgina 258

SPA R C : Requisitos de instalacin para la supervisin de Oracle Solaris Cluster


El mdulo de Oracle Solaris Cluster para Sun Management Center se utiliza para supervisar una configuracin de Oracle Solaris Cluster. Lleve a cabo las tareas siguientes antes de instalar los paquetes del mdulo de Oracle Solaris Cluster.

Requisitos de espacio: asegrese de que dispone de 25 MB de espacio libre en cada nodo del clster para los paquetes del mdulode Oracle Solaris Cluster. Instalacin de Sun Management Center : siga los procedimientos descritos en la documentacin de instalacin de Sun Management Center para instalar el software Sun Management Center . A continuacin se indican los requisitos adicionales para una configuracin de Oracle Solaris Cluster:

Instale el paquete del agente de Sun Management Center en cada nodo del clster. A l instalar Sun Management Center en un equipo del agente (nodo del clster), elija si desea utilizar el puerto predeterminado 161 para el puerto de comunicacin del agente (SNMP) u otro nmero. Este nmero de puerto permite que el servidor se comunique con el agente. Anote el nmero del puerto que elija para consultarlo posteriormente al configurar los nodos del clster para la supervisin. Consulte la documentacin de instalacin de Sun Management Center para obtener informacin acerca de la eleccin de un nmero de puerto SNMP.

S i tiene una consola de administracin u otro equipo dedicado, puede ejecutar el proceso de la consola en la consola de administracin y el proceso del servidor en otra mquina. Este enfoque de instalacin permite mejorar el rendimiento de Sun Management Center . Para obtener los mejores resultados, instale los paquetes de la consola y el servidor de Sun Management Center en equipos que no estn en el modo de clster. S i decide instalar los paquetes de la consola o el servidor en un nodo del clster, es posible que experimente los siguientes efectos adversos en el rendimiento:

El rendimiento del clster podra reducirse de forma considerable debido al aumento de carga de los procesos de Sun Management Center . Es muy probable que esto suceda cuando el servidor de Sun Management Center se ejecute en un nodo del clster.
255

SPA R C Instalacin : del mdulo de OracleSolaris Cluster para Sun Management Center

Sun Management Center no obtendr una alta disponibilidad si el servidor se instala en un nodo del clster. El servicio de Sun Management Center presentar errores si el nodo deja de funcionar como, por ejemplo, durante la migracin tras error a otro nodo.

Explorador web: asegrese de que el explorador web que utilice para conectarse a Sun Management Center sea compatible con esta aplicacin. Es posible que determinadas funciones no estn disponibles en los exploradores web incompatibles. Consulte la documentacin de Sun Management Center para obtener informacin sobre los exploradores web compatibles y los requisitos de configuracin.

SPA R C : Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center
Realice este procedimiento para instalar el paquete del servidor del mdulo de Oracle Solaris Cluster.
Nota Los paquetes del agente del mdulo de Oracle Solaris Cluster, SUNW scsal y S U N W scsam ,

ya se han agregado a los nodos del clster global durante la instalacin del software Oracle Solaris Cluster.
Antes de empezar

Asegrese de que los paquetes centrales de Sun Management Center se hayan instalado en los equipos correspondientes. Esta tarea incluye la instalacin de los paquetes del agente de Sun Management Center en cada nodo del clster. Consulte la documentacin de Sun Management Center para obtener instrucciones de instalacin. En el equipo del servidor de Sun Management Center , instale el paquete del servidor del mdulo de Oracle Solaris Cluster SUNWscssv. a. Convirtase en superusuario. b. Inserte el D VD-R O Men la unidad de D VD-R O M . Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. c. Acceda al directorio Solaris_sparc/Product/sun_cluster/Solaris_ donde ver es 10 para Solaris 10. ver/Packages/ ,

phys-schost# cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris

_ver/Packages/

d. Instale el paquete del servidor del mdulo de Oracle Solaris Cluster.


phys-schost# pkgadd -d . SUNWscssv
Captulo 8 Instalacin del mdulo de OracleSolaris Cluster en Sun Management Center 255

e. Extraiga el D VD-R O Mde la unidad de D VD-R O M . i. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. ii. Expulse el D VD-R OM .
phys-schost# 2 eject cdrom

Instale los parches del mdulo Oracle Solaris Cluster necesarios. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. Inicie Sun Management Center . Vaya a SPARC: Cmo iniciar Sun Management Center en la pgina 256.

Pasos siguientes

SPA R C : Cmo iniciar Sun Management Center


Realice este procedimiento para iniciar los procesos de la consola, el agente y el servidor de Sun Management Center . En el equipo del servidor de Sun Management Center , inicie el proceso del servidor de Sun Management Center . directorio_instalacinhace referencia al directorio en el que se ha instalado el software Sun Management Center . El directorio predeterminado es /opt .
server# /install-dir/SUNWsymon/sbin/es-start -S

En cada equipo del agente (nodo del clster) de Sun Management Center , inicie el proceso del agente de Sun Management Center como superusuario.
phys-schost# /install-dir/SUNWsymon/sbin/es-start -a

En cada equipo del agente (nodo del clster) de Sun Management Center , asegrese de que el daemon scsymon_srv se est ejecutand o.
phys-schost# ps -ef | grep scsymon_srv

Si el daemon csymon_srv no se est ejecutando an en algn nodo del clster, incielo en ese nodo.
phys-schost# /usr/cluster/lib/scsymon/scsymon_srv 4

En el equipo de la consola de Sun Management Center (consola de administracin), inicie la consola de Sun Management Center . No es necesario ser superusuario para iniciar el proceso de la consola.
adminconsole% /install-dir/SUNWsymon/sbin/es-start -c

Pasos siguientes

Agregue el nodo del clster en un objeto de host supervisado. Vaya a SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center en la pgina 257.

SPA R C : Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center
Realice este procedimiento para crear un objeto de host del agente de Sun Management Center para un nodo del clster global.

Inicie una sesin en Sun Management Center . Consulte la documentacin de Sun Management Center .

En la ventana principal de Sun Management Center , seleccione un dominio de la lista desplegable "Sun Management Center Administrative Domains" (Dominios administrativos de Sun Management Center ). Este dominio contiene el objeto de host del agente de Sun Management Center que ha creado. Durante la instalacin del software Sun Management Center , se crea automticamente un dominio predeterminado. Puede utilizar este dominio, seleccionar uno existente o crear uno nuevo. Consulte la documentacin de Sun Management Center para obtener informacin sobre cmo crear dominios de Sun Management Center .

3 4 5

Seleccione "Edit ""Create an Object" (EditarCrear un objeto) en el men desplegabl e. Haga clic en la ficha "Node" (Nodo). En la lista desplegable "Monitor Via" (Supervisar mediante), seleccione "Sun Management Center Agent - Host" (Agente de Sun Management Center - Host). Escriba el nombre del nodo del clster como, por ejemplo, phys-schost-1 , en los campos de texto "Node Label" (Etiqueta del nodo) y "Hostname" (Nombre de host). Deje el campo de texto IP en blanco. El campo de texto"Description" (Descripcin) es opcional. En el campo de texto "Port" (Puerto), escriba el nmero de puerto que seleccion al instalar el equipo del agente de Sun Management Center . Haga clic en "O K" (Aceptar).

Se crear un objeto de host del agente de Sun Management Center en el dominio.

Pasos siguientes

Cargue el mdulo de Oracle Solaris Cluster. Vaya a SPARC: Cmo cargar el mdulo de Oracle Solaris Cluster en la pgina 258. Slo necesita un objeto de host del nodo del clster para utilizar las funciones de supervisin y configuracin del mdulo de Oracle Solaris Cluster en todo el clster. Sin embargo, si ese nodo del clster deja de estar disponible, la conexin con el clster a travs de ese objeto de host tambin dejar de estar disponible. Necesitar a continuacin otro objeto de host del nodo del clster para volver a conectarse al clster.

Errores ms frecuentes

SPA R C : Cmo cargar el mdulo de Oracle Solaris Cluster


Realice este procedimiento para iniciar la supervisin del clster. En la venta principal de Sun Management Center , haga clic con el botn derecho en el icono de un nodo del clster. Aparece un men desplegable. Seleccione "Load Module" (Cargar mdulo). La ventana "Load Module" (Cargar mdulo) muestra los mdulos de Sun Management Center disponibles y si se ha cargado un mdulo especfico. Seleccione "Oracle Solaris Cluster: Not Loaded " (Oracle Solaris Cluster: no cargado) y haga clic en "O K" (Aceptar). La ventana "Module Loader" (Cargador de mdulos) muestra la informacin de los parmetros actuales para el mdulo seleccionado. Haga clic en "O K" (Aceptar). Tras unos instantes, se carga el mdulo. A continuacin, se muestra el icono de Oracle Solaris Cluster en la ventana "Details" (Detalles). Compruebe que se haya cargado el mdulo de Oracle Solaris Cluster. En la categora "Operating System" (Sistema operativo), expanda el rbol secundario de Oracle Solaris Cluster de una de las formas siguientes:

En la jerarqua de rbol ubicada a la izquierda de la ventana, coloque el curso sobre el icono del mdulo de Oracle Solaris Cluster y haga clic con el botn izquierdo del ratn.

En la vista de topologa ubicada a la derecha de la ventana, coloque el curso sobre el icono del mdulo de Oracle Solaris Cluster y haga doble clic con el botn izquierdo del ratn.

Vase tambin

Consulte la documentacin de Sun Management Center para obtener ms informacin sobre cmo utilizar Sun Management Center . Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.

Pasos siguientes

260

Desinstalacindel software del clster

A P T U L O

En este captulo, se proporcionan los procedimientos necesarios para desinstalar o suprimir determinadas aplicaciones de software de una configuracin de Oracle Solaris Cluster. En este captulo se describen los siguientes procedimientos:

Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 Cmo suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart en la pgina 265 Cmo desinstalar el software SunPlex Manager en la pgina 267 Cmo quitar el software Servidor de qurum en la pgina 268 Cmo anular la configuracin de un clster de zona en la pgina 269

Desinstalacin del software


En esta seccin se describen los procedimientos para desinstalar o suprimir determinados productos de software de un clster global.

Cmo anular la configuracin del software Oracle Solaris Clus ter para solucionar problemas de instalacin
Realice este procedimiento si el nodo instalado no puede unirse al clster o si necesita corregir la informacin de configuracin. Por ejemplo, lleve a cabo este procedimiento en todos los nodos para volver a configurar los adaptadores de transporte o la direccin de red privada.
5

Desinstalacindel software

Nota Si el nodo ya se ha unido al clster y ya no se encuentra en el modo de instalacin,

como se describe en el Paso 2 de Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155, no realice este procedimiento. En su lugar, consulte Desinstalacin del software Oracle Solaris Cluster desde un nodo del clster de Gua de administracin del sistema de Oracle Solaris Cluster.
Antes de empezar

Intente volver a ejecutar la configuracin del clster del nodo mediante la utilidad scinstall . Para corregir determinados errores de la configuracin del nodo del clster, aplique de nuevo la configuracin de software Oracle Solaris Cluster en el nodo. Agregue a la lista de autenticacin de nodos del clster cada nodo para el que vaya a anular su configuracin. Si va a anular la configuracin de un clster con un nico nodo, vaya al Paso 2. a. Convirtase en superusuario en un miembro activo del clster distinto al nodo en el que se vaya a anular la configuracin. b. Especifique el nombre del nodo que se va a agregar a la lista de autenticacin.
phys-schost# /usr/cluster/bin/claccess allow -h nodename

-h nombre_nodo Especificael nombre del nodo que se va a agregar a la lista de autenticacin. Tambin puede usar la utilidad clsetup para realizar esta tarea. Consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos.
2 3

Convirtase en superusuario un nodo cuya configuracin vaya a anular. Cierre el nodo.


phys-schost# shutdown -g0 -y -i0

Reinicie el nodo en un modo que no sea de clster.

E n sistemas basados en SPA R C ,ejecute el siguiente comando:


ok boot -x

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

E n sistemas basados en x86, ejecute los siguientes comandos: a. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |

Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . b. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu. | | |

c. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time e x its. ] grub edit> kernel /platform/i86pc/multiboot -x

d. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the
Captulo 9 Desinstalacindel software del clster

| | |

boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.-

e. Escriba b para iniciar el nodo en el modo sin clster.


Nota Este cambio en el comando del parmetro de inicio del ncleo no se conserva

tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo.
5

Acceda a un directorio como, por ejemplo, el directorio raz (/), que no contenga ningn archivo proporcionado por los paquetes de Oracle Solaris Cluster.
phys-schost# cd /

Suprima el nodo de la configuracin del clster.


phys-schost# /usr/cluster/bin/clnode remove

El nodo se suprime de la configuracin del clster, aunque el software Oracle Solaris Cluster no se elimina del nodo. Consulte la pgina de comando man clnode(1CL) para obtener ms informacin.
7 8

Repita del Paso 2 al Paso 6 para cada nodo adicional cuya configuracin desee anular. (Opcional) Desinstale los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Nota Si no necesita suprimir o volver a instalar el software Oracle Solaris Cluster, puede

omitir este paso. En este paso, tambin se suprime la entrada de Oracle Solaris Cluster del registro de productos de installer . Si el registro de productos de &; contiene una entrada en la que se indica que el software Oracle Solaris Cluster est instalado, el programa installer mostrar el componente Oracle Solaris Cluster atenuado y no permitir la reinstalacin. a. Inicie el programa uninstall . Ejecute el siguiente comando, donde ver hace referencia a la versin de la distribucin de Java ES desde la que se ha instalado el software Oracle Solaris Cluster.
phys-schost# /var/sadm/prod/SUNWentsys ver/uninstall

b. Siga las instrucciones que aparecen en la pantalla para seleccionar los componentes de Oracle Solaris Cluster que desea desinstalar.
8 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Nota Si se ha instalado el software Oracle Solaris Cluster Geographic Edition,

debe desinstalarlo tambin. Para obtener ms informacin sobre el uso del programa uninstall , consulte Captulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Errores ms frecuentes

Si el programa uninstall no existe en el nodo, podra suceder que la instalacin de paquetes no se completara del todo. Elimine el archivo /var/sadm/install/productregistry ;a continuacin, utilice el comando pkgrm para eliminar manualmente todos los paquetes de Oracle Solaris Cluster. Para volver a instalar o configurar el software Oracle Solaris Cluster en el nodo, consulte la Tabla 21. En esta tabla, se muestran todas las tareas de instalacin y el orden en el que deben realizarse. Para eliminar fsicamente el nodo del clster, consulte How to Remove an Interconnect Component de Oracle Solaris Cluster 3.3 Hardware Administration Manual y el procedimiento de eliminacin del manual de la Coleccin de administracin del hardware de Oracle Solaris Cluster correspondiente a su matriz de almacenamiento.

Pasos siguientes

Cmo suprimirla informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart
Lleve a cabo este procedimiento para suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart utilizado para instalar y configurar un clster. Puede suprimir la informacin de uno o varios nodos individuales o de uno o varios clsteres completos. Para obtener ms informacin sobre la funcin JumpStart, consulte Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas.

1 2

Convirtase en superusuario en el servidor JumpStart. Acceda al directorio de JumpStart utilizado para instalar el software Oracle Solaris Cluster.
installserver# cd jumpstart-dir

Suprima del archivo rules las entradas creadas por el comando scinstall que contengan el nombre de un nodo que desee eliminar. Las entradas de Oracle Solaris Cluster hacen referencia a autostinstall.class o autoscinstall.finish o a los dos archivos. Las entradas presentan un aspecto similar al siguiente, donde versin hace referencia a la versin del software Oracle Solaris Cluster:
hostname phys-schost-1 autoscinstall.d /release /autoscinstall.class \
9 Captulo 9 Desinstalacindel software del clster

autoscinstall.d/

release /autoscinstall.finish

10

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Vuelva a generar el archivo rules.ok . Ejecute el comando check ubicado en el directorio jumpstart-dir/ para volver a generar el archivo rules.ok .
installserver# ./check

Suprima del directorioclusters/ nombre_clster/ correspondiente el vnculo simblico de cada nodo que desee suprimir.

Para suprimir el vnculo simblico de uno o varios nodos del clster, elimine el vnculo con el nombre de cada nodo que desea suprimir.
installserver# r m -f autoscinstall.d/clusters /clustername/nodename

Para suprimir los vnculos simblicos de todo un clster, elimine de forma recursiva el directorio con el nombre del clster que se va a suprimir.
installserver# r m -rf autoscinstall.d/clusters /clustername

Para suprimir los vnculos simblicos de todos los clsteres, elimine de forma recursiva el directorio clusters/ .
installserver# r m -rf autoscinstall.d/clusters

Suprima del directorio autoscinstall.d/ el directorio de configuracin del nodo con el nombre de cada nodo que desee suprimir. Si suprime informacin de todo un clster, elimine el directorio de cada nodo del clster.

Para suprimir informacin de uno o varios nodos de un clster, elimine de forma recursiva el directorio de cada nodo.
installserver# r m -rf autoscinstall.d/nodes /nodename

Para suprimir todas las entradas de todos los clsteres, elimine de forma recursiva el directorio autoscinstall.d .
installserver# r m -rf autoscinstall.d

Suprima el archivo .autoscinstall.log.3


installserver# r m .autoscinstall.log.3

(Opcional) Si ha utilizado un archivo de almacenamiento flash para instalar el clster median te JumpStart, elimnelo si ya no lo necesita.
installserver# r m filename.flar

Pasos siguientes

Si tiene intencin de utilizar el mtodo JumpStart personalizado para volver a instalar un clster del que ha suprimido informacin de uno o varios nodos que se han eliminado de ese clster, debe volver a ejecutar scinstall para actualizar la lista de nodos del clster. See Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.

Cmo desinstalar el software SunPlex Manager


Utilice este procedimiento para desinstalar el software SunPlex Manager que se ha instalado mediante la utilidad installer de , incluida la distribucin Sun Java Enterprise System 2005Q4, o mediante cualquier otro mtodo de instalacin. Si desea suprimir el software Oracle Solaris Cluster Manager que se ha instalado con la distribucin Sun Java Enterprise System 5 de la utilidad installer o de otra distribucin compatible, use la utilidad uninstall para eliminar estos paquetes. Para obtener ms informacin, consulte Captulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Nota No desinstale SunPlex Manager, Oracle Solaris Cluster Manager ni sus componentes

compartidos si pretende utilizar la interfaz grfica de usuario (GUI) para las funciones del software Oracle Solaris Cluster Geographic Edition o Oracle Solaris Cluster que estn disponibles a travs de la GUI. Entre estas funciones, se incluyen los asistentes de configuracin de servicios de datos y la supervisin de los recursos del sistema. Sin embargo, si ha utilizado la interfaz de lnea de comandos para administrar estas funciones, la desinstalacin del software SunPlex Manager o Oracle Solaris Cluster Manager puede realizarse de forma segura. Realice este procedimiento en cada uno de los nodos del clster para desinstalar el software SunPlex Manager y los componentes compartidos de Sun Java Enterprise System relacionados.
Nota El software SunPlex Manager debe instalarse en todos los nodos del clster o no

debe instalarse en ninguno.


1 2

Convirtase en superusuario en un nodo del clster. Suprima los paquetes de software SunPlex Manager.
phys-schost# p k g r m S U N W scsp SU mN W scsp m Su U N W scsp m r

(Opcional) Suprima los paquetes de software Oracle Java Web Console si ya no los necesita.
phys-schost# p k g r m S U N W m cta SgU N W m c o S nU r N W m co Sn U N W m co Ss U N W m co sx

(Opcional) Si ha suprimido los paquetes de Oracle Java Web Console, elimine los paquetes de Apache Tomcat y Java Studio Enterprise Web Application Framework (Java ATO) si ya no los necesita. Suprima los paquetes que se indican a continuacin para cada uno de los productos adicionales que desee desinstalar en el orden en que se muestran los conjuntos de paquetes.

phys-schost# pkgrm packages

Producto

Nombres de los paque tes

Apache Tomcat Java ATO

SUNWtcatu SU N W jato SU N W jatodm SUNWjatodoc o

Antes de empezar

Cmo quitar el software Servidor de qurum


Antes de desinstalar el software del Servidor de qurum, asegrese de que haya completado las tareas siguientes:

En cada clster que use el servidor de qurum, suprmalo como dispositivo del qurum. Realice los pasos descritos en Eliminacin de un dispositivo de qurum de Gua de administracin del sistema de Oracle Solaris Cluster. En el modo de funcionamiento normal, este paso tambin suprime la informacin del servidor de qurum en el host del servidor de qurum. Si falla la comunicacin entre el clster y el equipo host del servidor de qurum durante este paso, debe borrar la informacin no vlida del servidor de qurum en el equipo host del servidor de qurum. Realice los pasos descritos en Limpieza de la informacin caducada sobre clsters del servidor de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.

En cada equipo host del servidor de qurum, detenga este servidor mediante los pasos descritos en Detencin de un servidor de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.

(Opcional) Para usar la interfaz grfica de usuario interactiva, compruebe que el entorno de visualizacin del servidor de host que se va a instalar se haya configurado para mostrar la GUI.
% xhost + % setenv D IS P L A Y nodenam :0.0 e

2 3

Convirtase en superusuario en el equipo host del servidor de qurum que se va a desinstalar. Acceda al directorio en el que se encuentra el programa de desinstalacin.
quorumserver# cd /var/sadm/prod/SUNWentsysver

ver

La versin que se haya instalado en el sistema.

Inicie el asistente de desinstalacin.


5 quorumserver# ./uninstall

Siga las instrucciones que aparecen en la pantalla para desinstalar el software del servidor de qurum desde el equipo host del servidor de qurum. Una vez eliminado, puede consultar el registro de instalacin disponible. Consulte Captulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para

obtener ms informacin sobre cmo utilizar el programa uninstall .

(Opcional) Limpie o suprima los directorios del servidor de qurum. De forma predeterminada, este directorio es /var/scqsd .

Cmo anular la configuracin de un clster de zona


Realice este procedimiento para suprimir un clster de zona. Convirtase en superusuario en un nodo del clster global. Siga todos los pasos de este procedimiento desde un nodo del clster global. Establezca fuera de lnea cada grupo de recursos del clster de zona e inhabilite sus recursos.
Nota Los siguientes pasos deben realizarse desde un nodo del clster global. Para realizar

estos pasos desde un nodo del clster de zona, inicie una sesin en ese nodo y omita "-Z clster_zona" en cada comando. a. Establezca fuera de lnea cada uno de los recursos.
phys-schost# clresource offline -Z zonecluster resource-group

b. Muestre todos los recursos habilitados en el clster de zona.


phys-schost# clresource show -Z zonecluster -p Enabled === Resources === Resource: Enabled{ nodename1 }: Enabled{ nodename2 }: . . . resource True True

c. Identifique aquellos recursos que dependen de otros.


phys-schost# clresource show -Z zonecluster -p resource_dependencies === Resources === Resource: Resource_dependencies: . . . node node

Debe inhabilitar los recursos dependientes antes de inhabilitar aquellos de los que dependen. d. Inhabilite todos los recursos habilitados en el clster.
phys-schost# clresource disable -Z zonecluster resource

Consulte la pgina de comando man clresource(1CL) para obtener ms informacin.

e. Asegrese de que se hayan inhabilitado todos los recursos.


phys-schost# clresource show -Z zonecluster -p Enabled === Resources === Resource: Enabled{ nodename1 }: Enabled{ nodename2 }: . . . resource False False

f. Cambie el estado de todos los grupos de recursos a no administrados.


phys-schost# clresourcegroup unm anage-Z zonecluster resource-group

g. Asegrese de que todos los recursos de todos los nodos se encuentren Fuera de lnea y de que todos los grupos de recursos presenten el estado N o administrado.
phys-schost# cluster status -Z zonecluster -t resource,resourcegroup

h. Elimine todos los grupos de recursos y sus recursos del clster de zona.
phys-schost# clresourcegroup delete -F -Z zonecluster + 3

Detenga el clster de zona.


phys-schost# clzonecluster halt zoneclustername

Desinstale el clster de zona.


phys-schost# clzonecluster uninstall zoneclustername

Anule la configuracin del clster de zona.


phys-schost# clzonecluster delete zoneclustername

Hojas de trabajo de instalacin y configuracin de OracleSolaris Cluster

P N D I C E

Este apndice ofrece hojas de trabajo para la planificacin de diversos componentes de la configuracin del clster y ejemplos de hojas de trabajo rellenas como referencia. Consulte Hojas de trabajo de instalacin y configuracin en Oracle Solaris Cluster Data Services Planning and Administration Guide , donde encontrar hojas de trabajo de configuracin para recursos, as como para tipos y grupos de recursos.

15

Hojas de trabajo de instalacin y configuracin

Hojas de trabajo de instalacin y configuracin


Si fuera necesario, realice copias adicionales de una hoja de trabajo para dar cabida a todos los componentes de la configuracin del clster. Siga las instrucciones de planificacin incluidas en el Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster para rellenar estas hojas de trabajo. A continuacin, consulte las hojas de trabajo rellenadas durante la instalacin y la configuracin.
Nota Los datos utilizados en las hojas de trabajo de ejemplo sirven nicamente como gua.

Los ejemplos no reflejan una configuracin completa de un clster que pudiera funcionar correctamente. En la tabla que aparece a continuacin, se muestran las hojas de trabajo de planificacin y los ejemplos que se recogen en este apndice, as como los ttulos de las secciones del Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster que contienen directrices de planificacin relacionadas.
TA B L AA1

Hojas de trabajo de instalacin del clster y directrices de planificacin relacionadas


Ejemplo Ttulos de las secciones donde se encuentran las directrices de planificacin relacionadas

Hoja de trabajo

Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273

Ejemplo: hojas de trabajo para el diseo de sistemas de archivos locales, con y sin raz reflejada en la pgina 274

Particiones de disco del sistema en la pgina 19 Directrices para la creacin de reflejos del disco raz en la pgina 58 --Grupos de dispositivos en la pgina 47 Planificacin de la administracin de volmenes en la pgina 53 Planificacin de la administracin de volmenes en la pgina 53 Documentacin del administrador de volmenes Planificacin de la administracin de volmenes en la pgina 53 Solaris Volume Manager Administration Guide

Hojas de trabajo para dispositivos locales Ejemplo: hojas de trabajo para en la pgina 275 dispositivos locales en la pgina 276 Hoja de trabajo para la configuracin Ejemplo: hoja de trabajo para la de grupos de dispositivos en la pgina configuracin de grupos de 277 dispositivos en la pgina 278 Hoja de trabajo para la configuracin del administrador de volmenes en la pgina 279 Ejemplo: hoja de trabajo para la configuracin del administrador de volmenes en la pgina 280

Hoja de trabajo de volmenes (Solaris Volume Manager) en la pgina 281

Ejemplo: hoja de trabajo de volmenes (Solaris Volume Manager) en la pgina 282

16

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Hojas de trabajo de instalacin y configuracin

Hoja de trabajo para el diseo del sistema de archivos local


Nombre del nodo:
TA B L A A2

Hoja de trabajo para sistemas de archivos locales con raz reflejada


Componen te Componen te Sistema de archivos Tamao

Nombre del volumen

/ intercambio /globaldevices

TA B L A A3

Hoja de trabajo para sistemas de archivos locales sin raz reflejada


Sistema de archivos Tamao

Nombre del dispositivo

/ intercambio /globaldevices

Apndi ce A H ojasde trabajo de instalacin y configuracinde OracleSolaris Cluster

17

Hojas de trabajo de instalacin y configuracin

Ejemplo:hojas de trabajo para el diseo de sistemas de archivos locales, con y sin raz reflejada
Nombre del nodo: phys-schost-1
TA B L AA4

Ejemplo: hoja de trabajo para sistemas de archivos locales con raz reflejada
Componen te Componen te Sistema de archivos Tamao

Nombre del volumen

d1 d2 d3

c0t0d0s0 c0t0d0s1 c0t0d0s3

c1t0d0s0 c1t0d0s1 c1t0d0s3

/ intercambio /globaldevices

6,75 G B 750 MB 512 MB

d7
TA B L AA5

c0t0d0s7

c1t0d0s7

S V Mreplica

20 M B

Ejemplo: hoja de trabajo para sistemas de archivos locales sin raz reflejada
Sistema de archivos Tamao

Nombre del dispositivo

c0t0d0s0 c0t0d0s1 c0t0d0s3

/ intercambio /globaldevices

6,75 G B 750 MB 512 MB

c0t0d0s7

S V Mreplica

20 MB

18

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Hojas de trabajo de instalacin y configuracin

Hojas de trabajo para dispositi vos locales


Nombre del nodo:
TA B L A A6

Hoja de trabajo para discos locales


Tamao

Nombre del disco local

TA B L A A7

Hoja de trabajo para otros dispositivos locales


Nombre

Tipo de dispositivo

Apndi ce A H ojasde trabajo de instalacin y configuracinde OracleSolaris Cluster

19

Hojas de trabajo de instalacin y configuracin

Ejemplo:hojas de trabajo para dispositi vos locales


Nombre del nodo: phys-schost-1
TA B L A A8

Ejemplo: hoja de trabajo para discos locales


Tamao

Nombre del disco local

c0t0d0 c0t1d0 c1t0d0 c1t1d0

2G 2G 2G 2G

TA B L A A9

Ejemplo: hoja de trabajo para otros dispositivos locales


Nombre

Tipo de dispositivo

cinta

/dev/rmt/0

20

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Hojas de trabajo de instalacin y configuracin

Hoja de trabajo para la configuracin de grupos de dispositivos


Administrador de volmenes (seale una opcin con un crculo): Solaris Volume Manager | VxVM
TA B L A A10

Hoja de trabajo para grupos de dispositivos


Nombres de los nodos Orden de prioridad? Recuperacin tras error?

Grupo de discos/

Nombre del conjunto de discos

(indique la prioridad en caso de existir una lista ordenada)

(seale una opcin con un crculo) S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No

(seale una opcin con un crculo) S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No

Apndi ce A H ojasde trabajo de instalacin y configuracinde OracleSolaris Cluster

21

Hojas de trabajo de instalacin y configuracin

Ejemplo:hoja de trabajo para la configuracin de grupos de dispositivos


Administrador de volmenes (seale una opcin con un crculo): Solaris Volume Manager
TA B L AA11

Ejemplo: hoja de trabajo para la configuracin de grupos de dispositivos


Nombres de los nodos Orden de prioridad? Recuperacin tras error?

Nombre del grupo o conjunto de discos

(indique la prioridad en caso de existir una lista ordenada) 1) phys-schost-1, 2) phys-schost-2

(seale una opcin con un crculo) S

(seale una opcin con un crculo) S

dg-schost-1

S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No

S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No

22

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Hojas de trabajo de instalacin y configuracin

Hoja de trabajo para la configuracin del administrador de volmenes


Administrador de volmenes (seale una opcin con un crculo): Solaris Volume Manager | VxVM
TA B L A A12 Nombre

Hoja de trabajo para la configuracin del administrador de volmenes


Tipo Componen te Componen te

Apndi ce A H ojasde trabajo de instalacin y configuracinde OracleSolaris Cluster

23

Hojas de trabajo de instalacin y configuracin

Ejemplo:hoja de trabajo para la configuracin del administrador de volmenes


Administrador de volmenes (seale una opcin con un crculo): Solaris Volume Manager
TA B L AA13 Nombre

Ejemplo: hoja de trabajo para la configuracin del administrador de volmenes


Tipo Componen te Componen te

dg-schost-1/d1 dg-schost-1/d4

mirror mirror

c0t0d0s4 c0t0d2s5

c4t4d0s4 d4t4d2s5

24

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

Hojas de trabajo de instalacin y configuracin

Hoja de trabajo de volmenes (Solaris Volume Manager)


TA B L A A14

Hoja de trabajo de volmenes (Solaris Volume Manager)


Conjunto de elemen tos reemplazables sobre la marcha

Sistema de archivos

Volumen

Reflejo

Subreflejos

Dispositivos fsicos

Apndi ce A H ojasde trabajo de instalacin y configuracinde OracleSolaris Cluster

25

Hojas de trabajo de instalacin y configuracin

Ejemplo:hoja de trabajo de volmenes (Solaris Volume Manager)


TA B L A A15

Ejemplo: hoja de trabajo de volmenes (Solaris Volume Manager)


Conjunto de elemen tos reemplazables sobre la marcha

Sistema de archivos

Volumen

Reflejo

Subreflejos

Dispositivos fsicos

/A

d10

d11

d12, d13

hsp000

c1t0d0s0, c2t0d1s0

26

Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA

ndice

Nmeros y smbolos
&software Sun Logical Domains (LDoms) dominios invitados planificar el intervalo de direcciones, 37

A
aadir Ver tambin configurar Ver tambin instalar hosts mediadores, 194195 puntos de montaje del sistema de archivos del clster a nuevos nodos, 73 unidades a un conjunto de discos, 187 189 adaptadores direccin MAC local, 29 dominios invitados de LDoms, 39 VLAN directrices de redes privadas, 37 VLAN etiquetada directrices de interconexin del clster, 39 directrices de red pblica, 28 adaptadores de transporte, Ver adaptadores adaptadores de VLAN, directrices de interconexin del clster, 39 adaptadores de VLAN etiquetadas, directrices de interconexin del clster, 39 adaptadores VLAN directrices de red pblica, 28 directrices de redes privadas, 37

adaptadores VLAN etiquetados, directrices de red pblica, 28 administrador de volmenes, particiones del, 19 administradores de volmenes Ver tambin Solaris Volume Manager Ver tambin Veritas Volume Manager (VxVM) planificacin Solaris Volume Manager, 5556 planificar general, 5359 Veritas Volume Manager, 5657 agregar, nodos del mdulo de Oracle Solaris Cluster a Sun Management Center, 257 258 aislamiento global, 4041 algoritmo de rbol de expansin, inhabilitar para los servidores del qurum, 30 almacenamiento conectado a redes, Ver NAS anular la configuracin Ver tambin desinstalar Ver tambin eliminar clsteres de zona, 269 270 software Oracle Solaris Cluster, 261 265 apagado automtico para ahorro de energa, restriccin, 18 aplicaciones, instalar en un sistema de archivos del clster, 49 archivo /etc/clusters , 68 archivo /etc/inet/hosts configurar, 74, 113 configurar en zonas de direcciones IP exclusivas, 227 planificar, 27

27

ndice

archivo /etc/inet/ike/config , 167 archivo /etc/inet/ntp.conf configurar, 164166 detener NTP, 165 iniciar NTP, 165 /etc/inet/ntp.conf.cluster archivo configurar, 164166 detener NTP, 165 iniciar NTP, 165 archivo /etc/lvm/md.tab , 190191 archivo /etc/name_to_major nodos instalados con VxVM, 201 nodos sin VxVM, 73, 202 archivo /etc/nsswitch.conf , modificaciones en las zonas no globales, 226 archivo /etc/serialports , 68 archivo /etc/system configuracin del adaptador ce, 81, 122 opcin de LOFS, 96, 103, 121, 140 valor de tamao de pila, 78 valor del tamao de pila de subproceso, 211 variable kernel_cage_enable, 74 archivo /etc/vfstab agregar puntos de montaje, 219 comprobar la configuracin, 220 archivo /var/adm/messages, 13 archivo autoscinstall.class , 115 archivo class , modificar, 115 archivo clusters , consola de administracin, 68 archivo hosts configurar, 74, 113 configurar en zonas de direcciones IP exclusivas, 227 planificar, 27 archivo md.tab, configurar, 190191 archivo name_to_major nodos instalados con VxVM, 201 nodos sin VxVM, 73, 202 archivo nsswitch.conf , modificaciones en las zonas no globales, 226 archivo ntp.conf configurar, 164166 detener NTP, 165 iniciar NTP, 165

archivo ntp.conf.cluster configurar, 164166 detener NTP, 165 iniciar NTP, 165 archivo serialports , 68 archivo system valor de tamao de pila, 78 valor del tamao de pila de subprocesos, 211 variable kernel_cage_enable, 74 archivo vfstab agregar puntos de montaje, 219 comprobar la configuracin, 220 archivos de inicializacin, 82 archivos de inicializacin del usuario, modificar, 82 archivos de mensajes, clster, 13 archivos de registro, instalacin de Oracle Solaris Cluster, 95 arquitectura de seguridad IP (IPsec) configuracin de archivo /etc/inet/ike/config necesaria, 167 configurar asociaciones de seguridad (SA), 167 configurar en la interconexin del clster, 166 168 asignacin de nombre basada en contenedor, planificar, 56 asociaciones de seguridad (SA), configurar para IPsec, 167 autenticacin, Ver lista de nodos autorizados ayuda, 1213

C
cadenas de discos, requisitos de los mediadores de dos cadenas, 194 cambiar intervalo de direcciones IP privadas, 128 134 nombres de host privados, 156158 cargar mdulo de Oracle Solaris Cluster en Sun Management Center, 258259 clster de zona aadir sistemas de archivos grupos de almacenamiento ZFS, 242243 clster zonas de marca, 44 clsteres con un nico host, asignar nombre, 34

clsteres con un nico nodo, Ver clsteres con un nico host clsteres de un solo host, configurar interconexiones del clster, 126 clsteres de zona aadir dispositivos conjuntos de discos, 250251 dispositivos de disco bsicos, 252 dispositivos DID, 251252 metadispositivos, 248249 aadir sistemas de archivos QFS, 244246 sistemas de archivos locales, 241242 agregar al intervalo de direcciones IP privadas, 36 agregar sistemas de archivos sistemas de archivos de clster, 246 248 anular la configuracin, 269270 archivo de configuracin, 239 asignar nombre, 44 configurar, 229252 crear, 233240 crear a partir de un archivo de configuracin, 239 direcciones IP, 27 establecer propiedad de tipo de recurso Global_zone, 44 informacin general, 230 montar sistemas de archivos con HAStoragePlus, 44 parada, 270 planificar, 4346 comando /etc/init.d/xntpd detener NTP, 165 iniciar NTP, 165 comando /etc/init.d/xntpd.cluster , iniciar NTP, 165 comando /opt/SUNWcluster/bin/cconsole, 70 instalar el software, 6770 usar, 71, 118 comando /opt/SUNWcluster/bin/ccp, 70 comando /usr/cluster/bin/claccess aadir nodos a la lista de nodos autorizados, 262 eliminar nodos de la lista de nodos autorizados, 139 comando /usr/cluster/bin/cldevice actualizar el espacio de nombres de dispositivos

comando /usr/cluster/bin/cldevice (Continuacin) determinar los nombres de ID de dispositivo, 151 verificar el procesamiento del comando, 185 comando /usr/cluster/bin/cldevicegroup eliminar nodos de grupos de dispositivos de disco bsicos, 206 verificar las configuraciones de grupos de discos, 212214 comando /usr/cluster/bin/clnode cambiar de ubicacin los grupos de recursos y dispositivos, 205 visualizar nombres de host privados, 157 comando /usr/cluster/bin/clquorumserver , iniciar el servidor de qurum, 66 comando /usr/cluster/bin/clresource enumerar recursos, 269 establecer fuera de lnea grupos de recursos, 269 inhabilitar de recursos, 269 comando /usr/cluster/bin/clsetup aadir interconexiones del clster, 126 cambiar nombres de host privados, 157 configuracin posterior a la instalacin, 153 registrar grupos de dispositivos, 209 comando /usr/cluster/bin/cluster aadir nodos, 142146 crear clsteres globales nuevos, 98107 verificar el modo de instalacin, 155 comando /usr/cluster/bin/cluster check, comprobacin del archivo vfstab , 220 comando /usr/cluster/bin/clvxvm , instalacin de VxVM, 201203 comando /usr/cluster/bin/scinstall aadir nodos, 134141 aadir nodos mediante JumpStart, 107125 anular la configuracin del software Oracle Solaris Cluster, 261265 crear el clster global, 8898 crear el clster global mediante JumpStart, 107125 comando cconsole instalar el software, 6770 usar, 71, 118

globales, 185

comando ccp, 70

comando claccess aadir nodos a la lista de nodos autorizados, 262 eliminar nodos de la lista de nodos autorizados, 139 comando cldevice actualizar el espacio de nombres de dispositivos globales, 185 determinar los nombres de ID de dispositivo, 151 verificar el procesamiento del comando, 185 comando cldevicegroup eliminar nodos de grupos de dispositivos de disco bsicos, 206 verificar las configuraciones de grupos de discos, 212214 comando clnode cambiar de ubicacin los grupos de recursos y dispositivos, 205 visualizar nombres de host privados, 157 comando clquorumserver, iniciar el servidor de qurum, 66 comando clresource enumerar recursos, 269 establecer fuera de lnea grupos de recursos, 269 inhabilitar recursos, 269 comando clsetup aadir interconexiones del clster, 126 cambiar nombres de host privados, 157 configuracin posterior a la instalacin, 153 registrar grupos de dispositivos, 209 comando cluster aadir nodos, 142146 agregar clsteres de zona a intervalo de direcciones IP privadas, 128 agregar clsteres de zona al intervalo de direcciones IP privadas, 36 crear clsteres globales nuevos, 98107 mostrar la configuracin de red privada, 127 verificar el modo de instalacin, 155 comando cluster check, comprobacin del archivo vfstab , 220 comando clvxvm, instalar VxVM, 201203 comando clzonecluster crear un clster de zona, 235 crear un clster de zona mediante un archivo

de configuracin, 239

comando clzonecluster (Continuacin) iniciar el clster de zona, 237 instalar el clster de zona, 236 parada del clster de zona, 270 comando explorer , 169170 comando fattach , restriccin en los sistemas de archivos del clster, 49 comando forcedirectio , restriccin, 53 comando raidctl , 7576 comando scinstall aadir nodos, 134141 aadir nodos mediante JumpStart, 107125 anular la configuracin del software Oracle Solaris Cluster, 261265 crear el clster global, 8898 crear el clster global mediante JumpStart, 107 125 comando telnet , nmeros de puerto serie, 69 comando xntpd detener NTP, 165 iniciar NTP, 165 comando xntpd.cluster , iniciar NTP, 165 comandocconsole, 70 compatibilidad de las tarjetas de interfaz de red (NIC) con las direcciones MAC locales, 29 compatibilidad de NIC con las direcciones MAC locales, 29 comprobar configuracin de vfstab , 220 SMF, 95, 102, 120, 138, 225 concentradores de terminales (TC), Ver dispositivos de acceso a la consola concentrar carga, establecer para distribucin de carga, 163164 configuracin de rpcmod, 78 configurar archivo md.tab, 190191 clsteres de zona, 229 252 mediante el shell de comandos, 233240 utilizando un archivo de configuracin, 239 clsteres globales nuevos mediante

JumpStart, 107125 mediante scinstall , 8898 mediante un archivo XML, 98107 conjuntos de discos, 185187

configurar (Continuacin) dispositivos del qurum, 149 154 entorno de trabajo del Filtro IP de usuario, 82Solaris, 8384 grupos de discos locales, 208210 grupos de IPMP, 74 interconexiones de un clster de un solo host, 126 Network Time Protocol (NTP), 164166 nodos de votacin de clster global adicionales mediante JumpStart, 107125 mediante scinstall , 134141 mediante un archivo XML, 142146 rplicas de base de datos de estado, 172 173 sistemas de archivos del clster, 217 221 software Servidor de qurum, 6467 Solaris Volume Manager, 171184 Veritas Volume Manager (VxVM), 199 207 zonas no globales, 223229 conflictos relacionados con el nmero menor, reparar, 211212 conjuntos de almacenamiento ZFS restricciones sistemas de archivos de dispositivos globales, 21 conjuntos de discos Ver conjuntos de discos aadir un clster de zona, 250 251 aadir unidades, 187189 configurar, 185187 reconfigurar particiones de unidades, 189 190 conmutadores, planificar, 39 conmutadores de transporte, planificar, 39 consola de administracin direcciones IP, 27 instalar el software CCP, 6770 M A N P A,T 69 H P A T H ,69 contenedor de agentes comn, habilitar el daemon, 113 contenedores Oracle Solaris modificaciones en el archivo nsswitch.conf , 226 propiedad autoboot, 225 zonas de direcciones IP compartidas, 225 zonas de direcciones IP exclusivas

contenedores Oracle Solaris, zonas de direcciones IP exclusivas (Continuacin) configurar grupos IPMP, 226 controladores del sistema (SC), Ver dispositivos de acceso a la consola convencin de asignacin de nombre, dispositivos de disco bsicos, 219 convenciones de nomenclatura adaptadores de VLAN etiquetadas, 39 clster, 3334 clsteres de zona, 44 nodos de votacin de clster global, 34 nombres de host privados, 37 volmenes locales, 55 zonas, 3435 zonas no globales, 23 creacin de reflejos, planificar, 58 59 creacin de reflejos integrada, 7576 cuotas, restriccin para los sistemas de archivos del clster, 48 CVM, Ver funcin de clster de Veritas Volume Manager (VxVM)

D
desencapsular el disco raz, 214 216 desinstalar Ver tambin anular la configuracin Ver tambin eliminar servidores del qurum, 268 269 solucin de problemas, 265 SunPlex Manager, 267268 direccin MAC local, 29 direcciones IP aadir a un servicio de nombres para zonas de direcciones IP exclusivas, 227 aadir al servicio de nombres, 71 cambiar el intervalo de direcciones IP privadas, 128134 directrices para los clsteres de zona, 43 planificar la red privada, 3537 configurar el archivo hosts , 227

planificar la red pblica, 27 direcciones IPv6 restriccin de red privada, 37, 38

direcciones IPv6 (Continuacin) uso de la red pblica, 29 direcciones lgicas, planificacin, 28 directorio /global , 52 directorio /opt/SUNWcluster/bin/, 69 directorio /opt/SUNWcluster/man/, 69 directorio /usr/cluster/bin/ , 82 directorio /usr/cluster/man/ , 82 discos, Ver unidades discos con varios puertos, Ver discos multihost discos multihost planificar, 55 reflejar, 58 discos raz creacin de reflejos inhabilitar aislamiento, 204 crear reflejos de discos internos, 75 76 desencapsular, 214216 encapsular, 203 reflejar, 173 inhabilitar el aislamiento, 174, 177, 180, 182 planificar, 5859 reflejo advertencia, 205 discos raz encapsulados anular la configuracin, 214216 configurar, 203 planificar, 57 reflejar, 205207 discos raz secundarios, 59 discos reemplazables sobre la marcha, planificar, 55 discos SATA, configurar como dispositivos del qurum, 42 dispositivo lofi archivo de clase JumpStart, 116 directriz, 19

dispositivos de disco bsicos aadir a un clster de zona, 252 convenciones de asignacin de nombre, 219 dispositivos de inicio, ruta de inicio alternativa, 175 dispositivos de qurum, recuento de votos de solucin de problemas, 154 dispositivos del qurum actualizar tras agregar un nodo, 146 149 advertencia, 205 configuracin del protocolo SCSI, 42 configuracin inicial, 149154 discos SATA, 42 dispositivos NAS, 150 y creacin de reflejos, 59 planificar, 4142 protocolo del qurum del software, 42 restriccin para los dispositivos repetidos, 42 restriccin para ZFS, 42 servidores del qurum, 150 solucin de problemas clsetup error, 154 verificar, 155156 dispositivos DID aadir a un clster de zona, 251 252 mostrar asignaciones, 188 dispositivos globales advertencia, 215 directorio /global/.devices/ reflejar, 176178 uso de un lofi, id_nodo 19 sistema dedispositivo archivos node@ , 55 limitacin del sistema de archivos para UFS, espacio de nombres 19 particin /globaldevices actualizar, 185

propiedad globaldevfs , 101 requisitos de espacio, 20 dispositivos compartidos, instalar dispositivos del qurum, 149154 dispositivos de acceso a la consola direcciones IP, 27

nmeros de puerto serie, 68 planificar, 28

crea r, 72 particin de /globaldevices planifica r, 19 planificar, 4653 requisitos de espacio para el dispositivo lofi, 20 dispositivos NAS aislar, 31, 45 configurar como dispositivos del qurum, 149154

dispositivos NAS de Network Appliance, configurar como dispositivos del qurum, 149154 dispositivos NAS de Sun, configurar como dispositivos del qurum, 149154 dispositivos repetidos establecer la propiedad de repeticin, 186 requisito de disco, 48 restriccin como dispositivos del qurum, 42 dispositivos SCSI configuracin del protocolo de aislamiento en los dispositivos del qurum, 42 corregir reservas tras agregar un tercer nodo, 146149 distribucin automtica de carga concentrar carga, 163164 factores de carga, 161162 informacin general, 158164 lmites de carga, 159160 preferente, 162163 prioridad, 160161 distribucin de carga de grupos de recursos concentrar carga, 163164 factores de carga, 161162 informacin general, 158164 lmites de carga, 159160 modo preferente, 162163 prioridad, 160161 DRL, planificar, 57

193

E
ejemplos aadir dispositivos a un clster de zona conjuntos de discos, 251 dispositivos DID, 252 metadispositivos, 249 aadir hosts mediadores, 195 aadir sistemas de archivos a un clster de zona conjuntos de almacenamiento ZFS, 243 sistemas de archivos compartidos QFS, 245 sistemas de archivos locales de alta disponibilidad, 242 aadir unidades a un conjunto de discos, 189 activacin de volmenes en el archivo md.tab,

ejemplos (Continuacin) actualizar dispositivos del qurum SCSI tras agregar un nodo, 148149 agregar sistemas de archivos a un clster de zona sistema de archivos de bucle invertido, 245 246 sistemas de archivos de clster, 247 archivo de configuracin de clster de zona, 239 archivo md.tab, 191 asignar un nmero menos a un grupos de dispositivos, 212 configurar el software Oracle Solaris Cluster en nodos adicionales mediante scinstall , 140 141 en todos los nodos con scinstall , 97 98 en todos los nodos mediante un archivo XML, 105 configurar HAStoragePlus para un sistema de archivos del clster en una zona no global, 229 creacin de reflejos disco raz encapsulado, 207 creacin de un conjunto de discos, 187 crear rplicas de base de datos de estado, 172 crear un clster de zona mediante un archivo de configuracin, 239 crear un sistema de archivos de clster, 221 reflejar espacio de nombres de dispositivos globales, 177 178 sistema de archivos raz (/), 175 sistemas de archivos que no se pueden desmontar, 180 181 sistemas de archivos que se pueden desmontar, 183184 eliminar Ver tambin anular la configuracin Ver tambin desinstalar clsteres de zona, 269270 nodos de la lista de nodos, 206

registro de productos de programa installer , 264 servidores del qurum, 268269 software Oracle Solaris Cluster, 261265 enrutadores, restriccin para los nodos del clster, 31 entorno de usuario root, configurar, 82

errores en la ruta del disco, habilitar el reinicio automtico, 96 estado grupos de dispositivos, 212 mediadores de dos cadenas, 195 verificar, 155156

F
factores de carga, establecer para distribucin de carga, 161162 Filtro IP, Ver Filtro IP de Solaris Filtro IP de NAT y Solaris, 18 filtro IP de Solaris configurar, 8384 restricciones, 18

G
grupo de almacenamiento ZFS restricciones encapsulacin del sistema de archivos raz, 57 grupo de discos raz, planificar, 56 grupo de dispositivos, verificar registro, 211 grupos de almacenamiento ZFS aadir a un clster de zona, 242 243 restricciones aadir discos del qurum, 42 grupos de discos Ver tambin grupos de dispositivos configurar, 208210 descripcin de tipos, 207 registrar como grupos de dispositivos, 209 verificar la configuracin, 212214 grupos de discos compartidos, descripcin, 207 grupos de discos de Veritas Volume Manager (VxVM) grupos de discos descripcin de tipos, 207 grupos de discos locales configurar, 208210 descripcin, 207

grupos de discos raz anular la configuracin de discos raz encapsulados, 214216 configurar en discos que no sean raz, 204 205 en discos raz encapsulados, 203 sencillos, 56 grupos de dispositivos Ver tambin grupos de discos asignar un nuevo nmero menor, 211 212 cambiar de ubicacin, 205 discos repetidos, 48 establecer la propiedad de repeticin, 186 estado, 212 exportar, 213 grupos de dispositivos de disco bsicos, 205 importar, 213 planificacin, 4748 registrar grupos de discos como, 209 registro de cambios en, 211 grupos de dispositivos de disco, Ver grupos de dispositivos grupos de dispositivos de disco bsicos, 206 Ver tambin grupos de dispositivos grupos de recursos cambiar de ubicacin, 205 distribucin automtica de carga entre nodos, 158 164 establecer como no administrados, 270 grupos IPMP, 29 grupos IPMP basados en sondeos, 29

ruta del disco, 96 requisitos de LOFS, 17

H
HA para NFS restriccin con LOFS, 17, 48 habilitar acceso remoto, 94 caja del ncleo, 74 daemon de contenedor de agentes comn, 113 NTP, 165 reinicio automtico al producirse errores en la

habilitar (Continuacin) ruta mltiple de E/S de Solaris, 74 HAStoragePlus Ver tambin sistemas de archivos locales de alta disponibilidad montar sistemas de archivos del clster en zonas no globales, 23, 227229 montar sistemas de archivos en clsteres de zona, 44

I
ID de nodo, asignacin de nmeros, 34 ID de nodos, 34 inhabilitar daemon de NTP, 165 LOFS, 96, 103, 121, 140 modo de instalacin, 154 protocolos de aislamiento, 152 recursos, 269 iniciar en el modo sin clster, 262 servidores del qurum, 66 Sun Management Center, 256257 inicio, Cluster Control Panel (CCP), 70 instalacin de paquetes Oracle Solaris Cluster Manager, 73 scsnapshot, 73, 116 servicios de datos mediante la utilidad installer , 7882 software Cluster Control Panel (CCP), 67 70 software Oracle Solaris Cluster, 7882 instalar Ver tambin aadir Ver tambin configurar Cluster Control Panel (CCP), 6770 en zonas, 17 Oracle Solaris Cluster Geographic Edition, 81 Oracle Solaris Cluster Manager, 81 paquetes de Solaris, 73, 116 pginas de comando man, 68 scsnapshot

instalar (Continuacin) scsnapshot paquetes de Solaris, 116 servicios de datos mediante la utilidad installer , 7882 Sistema de archivos de Veritas (VxFS), 77 software de Solaris con el software Oracle Solaris Cluster, 107 125 instalacin nica, 7075 software LDoms, 7677 software Oracle Solaris Cluster paquetes, 7882 software Servidor de qurum, 64 67 software Sun QFS, 82 Sun Management Center mdulo de Oracle Solaris Cluster, 255256 255 requisitos, 254 Veritas Volume Mnager (VxVM), 199207 instalar paquetes, pginas de comando man de Oracle Solaris Cluster, 68 paquetes de Solaris, 73

instalar servicios de datos, mediante la utilidad installer , 7882 interconexiones de clster, configurar un clster de un solo host, 126 interconexiones del clster cambiar el intervalo de direcciones IP privadas, 128134 planificar, 37 40 interfaces de red de la consola de dominio, direcciones IP, 27 interfaces de red lgicas, restriccin, 39 IPMP configurar grupos, 74 creacin automtica de grupos durante la instalacin, 29 grupos de zonas de IP exclusiva directrices, 24 grupos en zonas de direcciones IP exclusivas configurar, 226 planificar la red pblica, 29 Ipsec, configuracin de archivo /etc/inet/ike/config necesaria, 167

IPsec configurar en la interconexin privada del clster, 166168 configurar las asociaciones de seguridad (SA), 167

J
JumpStart archivo class , 115 instalar Solaris y el software Oracle Solaris Cluster, 107125 secuencia de comandos finish , 117 solucin de problemas de instalacin, 125

L
LDoms, Ver software Sun Logical Domains (LDoms) licencias, planificar, 26 lmites de carga, establecer para distribucin de carga, 159160 lista de nodos autorizados aadir nodos, 262 eliminar nodos, 139 listas de nodos grupos de dispositivos, 55 grupos de dispositivos de disco bsicos, 206 LOFS agregar un sistema de archivos del clster a una zona no global, 23 inhabilitar, 96, 103, 121, 140 restriccin, 17, 48

mediadores, Ver mediadores de dos cadenas mediadores de dos cadenas aadir hosts, 194195 estado, 195 informacin general, 193197 planificar, 55 reparar datos, 196197 mensajes de error clster, 13 comando metainit , 176 NTP, 33 metadispositivos, aadir a un clster de zona, 248 249 modo de instalacin inhabilitar, 154 verificar, 155 modo preferente, establecer para distribucin de carga, 162163 modo sin clster, iniciar en el, 262 mdulo de Oracle Solaris Cluster a Sun Management Center, agregar nodos, 257258 mdulo de Oracle Solaris Cluster en Sun Management Center, 253259 cargar, 258259 instalar, 255256 requisitos, 254255 MPxIO, Ver ruta mltiple de E/S de Solaris multirruta de red IP (IPMP), Ver IPMP Multirruta dinmica (DMP), 57

N
Network Time Protocol (NTP) configurar, 164166 detener, 165 iniciar, 165 NFS, Ver sistema de archivos de red (NFS) nodos, Ver nodos de votacin de clster global nodos de votacin de clster global aadir nodos actualizar los dispositivos del qurum tras, 146149

M
M ANPATH consola de administracin, 69 nodos del clster, 82 mscaras de red cambiar la mscara de red privada, 128 134 mostrar la mscara de red, 127 planificar la red privada, 3537

mediante JumpStart, 107125

requisitos del servidor de qurum, 150

mediante scinstall , 134141

nodos de votacin de clster global (Continuacin) agregar el mdulo de Oracle Solaris Cluster a Sun Management Center, 257258 asignacin de nmeros de ID de nodo, 34 asignar nombre, 34 crear el clster global mediante JumpStart, 107125 mediante scinstall , 8898 mediante un archivo XML, 98107 determinar el nmero de ID de nodo, 214 direcciones IP, 27 nodos adicionales mediante un archivo XML, 142146 planificar, 34 planificar los clsteres de zona, 43 verificar estado, 95, 102, 124, 139 modo de instalacin, 155 nodos del clster Ver clsteres de zona Ver nodos de votacin de clster global nombre del clster, 3334 nombres de host privados asignar a zonas, 225 cambiar, 156158 clsteres de zona, 44 planificar, 37 verificar, 157 nombres de ID de dispositivo, determinar, 151 NTP configurar, 164166 detener, 165 directrices, 33 iniciar, 165 nmero mayor del controlador vxio, nodos instalados con &VxVMshort, 201

opciones de montaje para sistemas de archivos de clster (Continuacin) requisitos, 219 VxFS, 52 Oracle Java Web Console restablecer, 113 restaurar acceso externo, 79 Oracle Solaris Cluster Geographic Edition, instalar, 81 Oracle Solaris Cluster Manager Ver tambin SunPlex Manager instalar paquetes de Solaris, 73 paquetes de Solaris necesarios, 116 requisito de ubicacin, 81

P
pginas de comando man, instalar, 68 parches, planificar, 2627 particiones administrador de volmenes, 19 /globaldevices , 19, 72 reconfigurar particiones de unidades, 189 190 sistema de archivos raz (/), 20 swap, 19 P A consola TH de administracin, 69 nodos del clster, 82 perfil, JumpStart, 115 prioridad, establecer para distribucin de carga, 160161 Procesador de servicio del sistema (SSP), Ver dispositivos de acceso a la consola de clster

O
opciones de montaje para los sistemas de archivos UFS, 5051 VxFS, 5152 opciones de montaje para sistemas de archivos

procesos de alta prioridad, restriccin, 32 programa installer , eliminar entrada de Oracle Solaris Cluster, 264 propiedad autoboot, 225 propiedad de tipo de recurso Global_zone, establecer para clsteres de zona, 44 propiedad globaldevfs , configurar un dispositivo lofi, 101 Protocolo de administracin de red simple (SNMP), puerto de Sun Management Center, 254 protocolo de tiempo de red (NTP), directrices, 33

protocolo del qurum del software, 42 protocolos de aislamiento, 4041 dispositivos del qurum SCSI, 42 dispositivos NAS, 31, 45 inhabilitar, 152 inhabilitar para la creacin de reflejos de discos raz, 204 inhabilitar para los reflejos de disco raz, 182 inhabilitar para reflejos de disco raz, 174, 177, 180 qurum del software, 42 puertos, Ver puertos serie puertos serie configurar en la consola de administracin, 68 Protocolo de administracin de red simple (SNMP), 254 puntos de montaje aadir a nuevos nodos, 73 anidados, 53 modificacin del archivo /etc/vfstab , 219 sistemas de archivos del clster, 5253 puntos finales de comunicacin, restriccin en los sistemas de archivos del clster, 49

Q
QFS, Ver Sun QFS

R
RAID, restriccin, 54 RAID de hardware, reflejar discos internos, 7576 RAID de software, restriccin, 54 recuperar creacin incorrecta de nodos del clster, 98, 105, 141, 146 recursos enumerar, 269 inhabilitar, 269 recursos de nombre de host lgico, requisito para zonas de IP exclusiva, 24 red privada agregar clster de zona al intervalo de direcciones IP, 128

red privada (Continuacin) agregar clsteres de zona al intervalo de direcciones IP privadas, 36 cambiar el intervalo de direcciones IP, 128 134 configurar IPsec, 166168 configurar la visualizacin, 127 dominios invitados de LDoms, 37 planificar, 3537 restriccin de direccin IPv6, 38 uso en clsteres de zona, 43 red pblica aadir direcciones IP a un servicio de nombres, 71 compatibilidad con IPv6, 29 planificar, 2830 reflejar discos internos, 7576 discos multihost, 58 discos raz, 173 planificar, 5859 espacio de nombres de dispositivos globales, 176178 sistema de archivos raz (/), 173 176 solucin de problemas sistemas de archivos de dispositivos globales, 178 sistemas de archivos que no se pueden desmontar, 181 sistemas de archivos que se pueden desmontar, 184 sistemas de archivos raz, 176 reflejar discos de hardware internos, 75 76 reflejo diferencias en el tamao de los dispositivos, 58 discos raz advertencia, 205 reflejos en tres direcciones, 58 registrar los grupos de dispositivos de VxVM, 209 Registro de reas modificadas (DRL), planificacin, 57 registro de los sistemas de archivos del clster, planificar, 57 registro de sistemas de archivos, planificar, 57 registro de UFS, planificar, 57 reinicio automtico al producirse errores en la ruta del disco, 96 reparacin, datos de mediador, 196197

reparar, conflictos relacionados con el nmero menor, 211212 rplicas de base de datos de estado, configurar, 172173 rootdg, Ver grupos de discos raz ruta de inicio alternativa, visualizar, 175 ruta mltiple de E/S de Solaris, habilitar, 74

S
scsnapshot, instalar paquetes de Solaris, 73 scsnapshot, instalar paquetes de Solaris, 116 secuencia de comandos finish , JumpStart, 117 servicio de asistencia tcnica, 1213 servicio de nombres aadir asignaciones de direccin IP, 71 aadir asignaciones de direcciones IP para zonas de direcciones IP exclusivas, 227 servicio rarpd, restriccin para los nodos del clster, 32 servicio RPC nmeros de programa restringidos, 32 restaurar el acceso externo, 79 servicios multiusuario comprobar, 95, 102, 120, 138, 225 servidores de qurum, instalar software Servidor de qurum, 6467 servidores de Sun Enterprise 10000, archivos serialports , 69 servidores de Sun Fire 15000, nmeros de puerto serie, 69 servidores del qurum archivo /etc/scqsd/scqsd.conf , 66 configurar como dispositivos del qurum, 149 154 desinstalar, 268269 directorio de instalacin, 66 directrices, 30 eliminar, 268269 entradas de archivo de mscara de red, 150 iniciar, 66 paquetes instalados, 66 requisitos como dispositivo del qurum, 150 solucin de problemas, 66

servidores NIS, restriccin para los nodos del clster, 32 servidores Sun Enterprise 10000 compatibilidad con la reconfiguracin dinmica, 74 variable kernel_cage_enable, 74 servidores Sun Fire 15000, direcciones IP, 27 sistema de archivos de bucle (LOFS), agregar un sistema de archivos del clster a una zona no global, 23 sistema de archivos de bucle invertido (LOFS) inhabilitar, 96, 103, 121, 140 restriccin, 17 sistema de archivos de bucle invertido (Loopback File System, LOFS), restriccin, 48 sistema de archivos de clster comprobar la configuracin, 220 opciones de montaje, 219 sistema de archivos de red (NFS) directrices para los nodos del clster, 3031 restriccin de HA para NFS con LOFS, 30 31 Sistema de archivos de Veritas (VxFS) administrar, 220 instalar, 77 montaje de sistemas de archivos de clster, 220 montar sistemas de archivos de clster, 52 planificar, 52, 57 restricciones, 52 sistema de archivos raz (/), reflejar, 173 176 sistema operativo Solaris 10 SMF, 95, 102, 120, 138, 225 sistemas de archivos de clster agregar a un clster de zona, 246 248 restriccin de LOFS, 48 restricciones VxFS, 52 sistemas de archivos de migracin tras error, Ver sistemas de archivos locales de alta disponibilidad sistemas de archivos del clster aadir a un nuevo nodo, 73 advertencia, 217 configurar, 217221 instalar aplicaciones, 49 planificar, 4653 restricciones clsteres de zona,

48

sistemas de archivos del clster, restricciones (Continuacin) comando fattach , 49 cuotas, 48 forcedirectio , 53 LOFS, 17 puntos finales de comunicacin, 49 zonas no globales, 23 zonas no globales, 227 229 sistemas de archivos globales Ver sistemas de archivos de clster Ver sistemas de archivos del clster sistemas de archivos locales, aadir un clster de zona, 241242 sistemas de archivos locales de alta disponibilidad Ver tambin HAStoragePlus alternativa a los sistemas de archivos del clster, 48 compatibilidad de las cuotas, 48 inhabilitar LOFS para ejecutar HA para NFS, 96, 103, 121, 140 restriccin de LOFS con HA para NFS, 17 SMF comprobar servicios en lnea, 95, 102, 120, 138, 225 SNMP, puerto de Sun Management Center, 254 software Cluster Control Panel (CCP) inicio, 70 instalar, 67 70 restriccin de LDoms, 67 software de Solaris grupo de software mnimo, 1819 instalar instalacin nica, 7075 planificar, 1626 administradores de volmenes, 21 grupos de software, 1819 particiones, 1922 sistema de archivos /globaldevices , 20 21 sistema de archivos raz (/), 20 restricciones apagado automtico para ahorro de energa, 18 filtro IP de Solaris, 18 zonas, 17 software multirruta de E/S de Solaris, restriccin de

LDoms, 25

software Solaris instalar con el software Oracle Solaris Cluster, 107 125 software Sun Explorer, 169170 software Sun Logical Domains (LDoms) directrices, 24 26 dominios invitados nombres de adaptadores virtuales, 39 restriccin de Cluster Control Panel, 67 instalar, 7677 restriccin de software multirruta, 25 Solaris Trusted Extensions crear un clster de zona, 233 240 directrices, 4546 preparar el clster global, 230233 Solaris Volume Manager archivo md.tab, 190191 coexistencia con VxVM, 202 configurar, 171184 conjuntos de discos aadir un clster de zona, 250 251 aadir unidades, 187189 configurar, 185187 reconfigurar particiones de unidades, 189 190 mediadores Ver mediadores de dos cadenas mediadores de dos cadenas aadir hosts, 194 195 estado, 195 informacin general, 193197 reparar datos errneos, 196 197 mensajes de error, 176 metadispositivos aadir a un clster de zona, 248249 nombres de dispositivo de disco bsico, 219 planificar, 5556 reflejar discos raz, 173 espacio de nombres de dispositivos globales, 176 178

sistema de archivos raz (/), 173176 rplicas de base de datos de estado, 172 173 volmenes activacin, 191193

solucin de problemas configurar clsteres globales nuevos, 98, 105, 141, 146 nodos adicionales, 141 desinstalacin, 265 dispositivos de qurum recuento de votos, 154 dispositivos del qurum clsetup error, 154 grupos de discos de VxVM, 211 instalacin del servidor de qurum, 66 instalacin mediante JumpStart, 125 reflejar sistemas de archivos de dispositivos globales, 178 sistemas de archivos que no se pueden desmontar, 181 sistemas de archivos que se pueden desmontar, 184 sistemas de archivos raz, 176 registro de lnea de base de configuracin de explorer , 169170 solucionar problemas aadir nodos al mdulo de Oracle Solaris Cluster a Sun Management Center, 258 grupos de discos locales de VxVM, 213 SSP, Ver dispositivos de acceso a la consola Sun Management Center inicio, 256257 mdulo de Oracle Solaris Cluster, 253 259 agregar nodos, 257258 cargar, 258259 instalar, 255256 requisitos de instalacin, 254 Sun QFS aadir sistemas de archivos a un clster de zona, 244246 instalar el software, 82 SunPlex Manager, desinstalar, 267268 SU N W C u ser, grupo de software mnimo, 1819 swap, planificar, 19

U
unidades aadir a conjuntos de discos, 187189 creacin de reflejos de dispositivos con distintos tamaos, 58 reconfigurar particin, 189190 unidades de discos, Ver unidades

T
Trusted Extensions, Ver Solaris Trusted Extensions

V
valor de tamao de pila, 78 valor del tamao de pila, 211 valor del tamao de pila de subprocesos, 211 variable ce_taskq_disable , 81, 122 variable ipge_taskq_disable , 81, 122 variable ixge_taskq_disable , 81, 122 variable kernel_cage_enable, 74 verificar configuracin del qurum, 155156 configuraciones de grupos de discos de VxVM, 212214 estado de los nodos del clster, 95, 102, 124, 139 instalacin del software Oracle Solaris Cluster, 155156 modo de instalacin, 155 nombres de host privados, 157 procesamiento del comandocldevice, 185 reinicio automtico al producirse errores en la ruta del disco, 96 Veritas Volume Manager (VxVM) asignacin de nombre basada en contenedor, 56 coexistencia con Solaris Volume Manager, 54 configurar, 199207 grupos de discos, 208210 grupos de discos locales, 208210 nodos sin VxVM, 202 volmenes, 208210 crear reflejos del disco raz encapsulado, 205 207 desencapsular disco raz, 214216 discos raz advertencia durante la encapsulacin, 215 desencapsular, 214216 encapsular, 203 restriccin de encapsulacin para ZFS, 57

Veritas Volume Manager (VxVM) (Continuacin) encapsular disco raz, 203 funcin de clster crear grupos de discos compartidos, 209 requisito de instalacin, 54 grupo de discos raz planificar, 56 grupo de dispositivos asignar un nuevo nmero menor, 211 212 grupos de discos configurar, 208210 registrar, 209 solucionar problemas de grupos de discos locales, 213 solucionar problemas de registro, 211 verificar las configuraciones, 212 214 grupos de discos compartidos descripcin, 207 grupos de discos locales configurar, 208210 descripcin, 207 solucionar problemas, 213 grupos de discos raz anular la configuracin de discos raz, 214 216 configurar discos raz, 203 configurar en discos que no sean raz, 204 205 planificar, 200201 sencillos, 56 grupos de dispositivos importar y exportar, 213 instalar, 199207 nombres de dispositivos de disco bsico, 219 planificacin, 5657 planificar, 21 volmenes Solaris Volume Manager activar, 191193 VxVM configurar, 208210 verificar, 212 volmenes locales requisito de nombre exclusivo, 55 VxFS, Ver Sistema de archivos de Veritas (VxFS)

vxio nmero mayor del controlador, nodos sin VxVM, 202 VxVM, Ver Veritas Volume Manager (VxVM)

Z
zonas, Ver zonas de Solaris zonas de direcciones IP compartidas, Ver contenedores Oracle Solaris zonas de direcciones IP exclusivas, Ver contenedores Oracle Solaris zonas de Solaris aislar para dispositivos NAS, 31, 45 configurar, 223229 convenciones de nomenclatura, 3435 LOFS coexistencia con HA para NFS, 2224 requisitos, 17 requisitos de instalacin, 17 sistemas de archivos del clster montar con HAStoragePlus, 227 229 zonas de Solaris zones, directrices, 2224 zonas globales, Ver zonas de Solaris zonas no globales Ver clsteres de zona Ver zonas de Solaris zonas Solaris sistemas de archivos del clster restriccin, 23 zonas de IP exclusiva directrices, 24

S-ar putea să vă placă și