Documente Academic
Documente Profesional
Documente Cultură
Copyright 2000, 2010, Oracle y/o sus subsidiarias. Todos los derechos reservados.
Este software y la documentacin relacionada estn sujetos a un contrato de licencia que incluye restricciones de uso y revelacin,y se encuentran protegidos por la legislacin sobre la propiedad intelectual. A menos que figure explcitamente en el contrato de licencia o est permitido por la ley, no se podr utilizar, copiar, reproducir, traducir, emitir, modificar, conceder licencias, transmitir, distribuir, exhibir, representar, publicar ni mostrar ninguna parte, de ninguna forma, por ningn medio. Queda prohibida la ingeniera inversa, desensamblaje o descompilacin de este software, excepto en la medida en que sean necesarios para conseguir interoperabilidad segn lo especificado por la legislacin aplicable. La informacin contenida en este documento puede someterse a modificaciones sin previo aviso y no se garantiza que se encuentre exenta de errores. Si detecta algn error, le agradeceremos que nos lo comunique por escrito. Si este software o la documentacin relacionada se entrega al Gobierno de EE.UU. o a cualquier entidad que adquiera licencias en nombre del Gobierno de EE.UU. se aplicar la siguiente disposicin:
U.S. GOVERNMENT RIGHTS Programs, software, databases, and related documentation and technical data delivered to U.S. Government customers are "commercial computer software" or "commercial technical data" pursuant to the applicable Federal Acquisition Regulation and agency-specific supplemental regulations. As such, the use, duplication, disclosure, modification, and adaptation shall be subject to the restrictions and license terms set forth in the applicable Government contract, and, to the extent applicable by the terms of the Government contract, the additional rights set forth in FAR 52.227-19, Commercial Computer Software License (December 2007). Oracle America, Inc., 500 Oracle Parkway, Redwood City, CA 94065
Este software o hardware se ha desarrollado para uso general en diversas aplicaciones de gestin de la informacin. No se ha diseado ni est destinado para utilizarse en aplicaciones de riesgo inherente, incluidas las aplicaciones que pueden causar daos personales. Si utiliza este software o hardware en aplicaciones de riesgo, usted ser responsable de tomar todas las medidas apropiadas de prevencin de fallos, copia de seguridad, redundancia o de cualquier otro tipo para
garantizar la seguridad en el uso de este software o hardware. Oracle Corporation y sus subsidiarias declinan toda responsabilidad derivada de los daos causados por el uso de este software o hardware en aplicaciones de riesgo. Oracle y Java son marcas comerciales registradas de Oracle y/o sus subsidiarias. Todos los dems nombres pueden ser marcas comerciales de sus respectivos propietarios. AMD, Opteron, el logotipo de AMD y el logotipo de AMD Opteron son marcas comerciales o marcas comerciales registradas de Advanced Micro Devices. Intel e Intel Xeon son marcas comerciales o marcas comerciales registradas de Intel Corporation. Todas las marcas comerciales de SPARC se utilizan con licencia y son marcas comerciales o marcas comerciales registradas de SPARC International, Inc. UNIX es una marca comercial registrada con acuerdo de licencia de X/Open Company, Ltd. Este software o hardware y la documentacin pueden ofrecer acceso a contenidos, productos o servicios de terceros o informacin sobre los mismos. Ni Oracle Corporation ni sus subsidiarias sern responsables de ofrecer cualquier tipo de garanta sobre el contenido, los productos o los servicios de terceros y renuncian explcitamente a ello. Oracle Corporation y sus subsidiarias no se harn responsables de las prdidas, los costos o los daos en los que se incurra como consecuencia del acceso o el uso de contenidos, productos o servicios de terceros.
110418@25097
Contenido
Prefacio ................................................................................................................................................... .9 1 Planificacin de la configuracin de Oracle Solaris Cluster ......................................................... 15 Bsqueda de tareas de instalacin de Oracle Solaris Cluster .......................................................... 15 Planificacin del sistema operativo Oracle Solaris .......................................................................... 16 Directrices para seleccionar el mtodo de instalacin de Solaris ........................................... 17 Restricciones de las funciones del sistema operativo Oracle Solaris ...................................... 17 Consideraciones sobre los grupos de software de Solaris ....................................................... 18 Particiones de disco del sistema ................................................................................................. 19 Directrices para zonas no globales en un clster global .......................................................... 22 SPARC: Directrices para Sun Logical Domains en un clster ................................................ 24 Planificacin del entorno de Oracle Solaris Cluster ........................................................................ 26 Licencias ........................................................................................................................................ 26 Parches de software ...................................................................................................................... 26 Direcciones IP de red pblica ..................................................................................................... 27 Dispositivos de acceso a la consola ............................................................................................ 28 Direcciones lgicas ...................................................................................................................... 28 Redes pblicas .............................................................................................................................. 28 Servidores del qurum ................................................................................................................ 30 Directrices de NFS ....................................................................................................................... 30 Restricciones de servicio ............................................................................................................. 31 Protocolo de tiempo de red (NTP) ............................................................................................. 33 Componentes configurables de Oracle Solaris Cluster ........................................................... 33 clsteres de zona ........................................................................................................................... 43 Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster .............................................................................................................................................. 46 Dispositivos globales ................................................................................................................... 47 Grupos de dispositivos ................................................................................................................ 47
3
Contenido
Sistemas de archivos del clster .................................................................................................. 48 Seleccin de las opciones de montaje para los sistemas de archivos del clster ................... 50 Informacin de montaje para los sistemas de archivos del clster ........................................ 52 Planificacin de la administracin de volmenes ........................................................................... 53 Directrices para el software del administrador de volmenes ................................................ 54 Directrices para el software Solaris Volume Manager ............................................................. 55 Directrices para el software Veritas Volume Manager ............................................................ 56 Registro de los sistemas de archivos ........................................................................................... 57 Directrices de creacin de reflejos .............................................................................................. 58 Instalacin del software en los nodos del clster global ............................................................. .61 Instalacin del software ...................................................................................................................... 61 Cmo preparar la instalacin del software del clster ............................................................. 62 Instalacin y configuracin del software Servidor de qurum ............................................... 64 Cmo instalar el software Cluster Control Panel en una consola de administracin .......... 67 Cmo instalar el software de Solaris .......................................................................................... 70 Cmo configurar la creacin de reflejos de discos internos .................................................... 75 SPARC: Instalacin del software Sun Logical Domains y creacin de dominios ................. 76 Cmo instalar el software Sistema de archivos de Veritas ...................................................... 77 Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster ................................................................................................................ ...............78 Cmo instalar el software Sun QFS ............................................................................................ 82 Cmo configurar el entorno de usuario root ............................................................................ 82 Cmo configurar el filtro IP de Solaris ...................................................................................... 83 2
Establecimiento del clster global ................................................................................................... 85 Establecimiento de un nuevo clster global o de un nuevo nodo de clster global ..................... 86 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) ........ 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) .................. 98 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) ......................... 107 Cmo preparar el clster para nodos de clster global adicionales ..................................... 125 Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas ........... 128
Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) ................................................................................................................................ 134 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales
Contenido
Contenido
(XML) .......................................................................................................................................... 142 Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global .... 146 Cmo configurar dispositivos del qurum ............................................................................. 149 Cmo verificar los modos de configuracin e instalacin del qurum ............................... 155 Cmo cambiar nombres de host privados .............................................................................. 156 Configuracin de la distribucin de la carga de grupos entre nodos ................................... 158 Cmo configurar Network Time Protocol (NTP) ................................................................. 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster .......................................................................................................................................... 166 Cmo registrar los datos de diagnstico de la configuracin del clster ............................. 169 4 Configuracin del software Solaris Volume Manager ................................................................. 171 Configuracin del software Solaris Volume Manager .................................................................. 171 Cmo crear rplicas de la base de datos de estado ................................................................. 172 Creacin de reflejos del disco raz ............................................................................................ 173 Cmo crear un reflejo del sistema de archivos raz (/) ........................................................... 173 Cmo crear reflejos del espacio de nombres de los dispositivos globales ........................... 176 Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar ................................................................................................................................... 179 Cmo crear reflejos de sistemas de archivos que se pueden desmontar .............................. 181 Creacin de conjuntos de discos en un clster .............................................................................. 184 Cmo crear un conjunto de discos .......................................................................................... 185 Adicin de unidades a un conjunto de discos ......................................................................... 187 Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos .............. 189 Cmo crear un archivo md.tab ................................................................................................ 190 Cmo activar volmenes .......................................................................................................... 191 Configuracin de mediadores de dos cadenas ............................................................................... 193 Requisitos para los mediadores de dos cadenas ..................................................................... 194 Cmo agregar hosts mediadores .............................................................................................. 194 Cmo comprobar el estado de los datos de mediador ........................................................... 195 Cmo corregir datos de mediador errneos ........................................................................... 196
Contenido
Instalacin y configuracin del software VxVM ........................................................................... 199 Informacin general de la configuracin de un grupo de discos raz .................................. 200
Contenido
Cmo instalar el software Veritas Volume Manager ............................................................. 201 SPARC: Cmo encapsular el disco raz ................................................................................... 203 Cmo crear un grupo de discos raz en un disco que no sea raz .......................................... 204 Cmo crear reflejos del disco raz encapsulado ...................................................................... 205 Creacin de grupos de discos en un clster .................................................................................... 207 Cmo crear un grupo de discos ................................................................................................ 208 Cmo registrar un grupo de discos .......................................................................................... 210 Asignacin de un nmero menor nuevo a un grupo de dispositivos .................................. 211 Cmo verificar la configuracin del grupo de discos ............................................................. 212 Desencapsulacin del disco raz ...................................................................................................... 214 Cmo desencapsular el disco raz ............................................................................................ 214 6 Creacin de un sistema de archivos del clster ............................................................................ 217 Creacin de sistemas de archivos del clster .................................................................................. 217 Cmo crear sistemas de archivos del clster ........................................................................... 217 Creacin de zonas no globales y clsteres de zona ..................................................................... .223 Configuracin de una zona no global en un nodo del clster global ........................................... 223 Cmo crear una zona no global en un nodo del clster global ............................................. 223 Cmo configurar un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales ................................................................................................ 227 Configuracin de un clster de zona ............................................................................................... 229 Informacin general de la utilidad clzonecluster ............................................................... 230 Establecimiento del clster de zona ......................................................................................... 230 Adicin de sistemas de archivos a un clster de zona ............................................................ 240 Adicin de dispositivos de almacenamiento a un clster de zona ....................................... 248 8 Instalacin del mdulo de Oracle Solaris Cluster en Sun Management Center ...................... 253 SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center ...... 253 SPARC: Requisitos de instalacin para la supervisin de Oracle Solaris Cluster ...............254 SPARC: Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center ....................................................................................................................................................... 255 SPARC: Cmo iniciar Sun Management Center .................................................................... 256
7
Contenido
SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center .................................................................................................................. 257
Contenido
SPARC: Cmo cargar el mdulo de Oracle Solaris Cluster .................................................. 258 9 Desinstalacin del software del clster ......................................................................................... 261 Desinstalacin del software .............................................................................................................. 261 Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin ........................................................................................................... 261 Cmo suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart .................................................................................................................................... 265 Cmo desinstalar el software SunPlex Manager .................................................................... 267 Cmo quitar el software Servidor de qurum ........................................................................ 268 Cmo anular la configuracin de un clster de zona ............................................................. 269
Hojas de trabajo de instalacin y configuracin de Oracle Solaris Cluster .............................. 271 Hojas de trabajo de instalacin y configuracin ............................................................................ 272 Hoja de trabajo para el diseo del sistema de archivos local ................................................. 273 Hojas de trabajo para dispositivos locales ............................................................................... 275 Hoja de trabajo para la configuracin de grupos de dispositivos ......................................... 277 Hoja de trabajo para la configuracin del administrador de volmenes ............................. 279 Hoja de trabajo de volmenes (Solaris Volume Manager) ................................................... 281 ndice .................................................................................................................................................. 283
Prefacio
La Gua de instalacin del software Oracle Solaris Cluster contiene directrices y procedimientos para la instalacin del software Oracle Solaris Cluster en sistemas basados en SPARC y x86.
Nota Esta versin de Oracle Solaris Cluster admite sistemas que usen arquitecturas de las
familias de procesadores SPARC y x86: UltraSPARC, SPARC64, AMD64 e Intel 64. En este documento, x86 hace referencia a la familia ms amplia de productos de 64 bits compatibles con x86. La informacin de este documento se aplica a todas las plataformas a menos que se especifique lo contrario. Este documento est destinado a administradores de sistemas con amplios conocimientos del software y hardware de Oracle. No utilice este documento como una gua previa a la venta. Antes de leer este documento, debe conocer los requisitos del sistema, y disponer del equipo y el software adecuados. Las instrucciones de este documento presuponen un conocimiento previo del sistema operativo Solaris (SolarisOS) y el dominio del software de administracin de volmenes que se utiliza con el software Oracle Solaris Cluster.
Documentacin en lnea del sistema operativo Solaris Otra documentacin de software recibida con el sistema Pginas de comando man del sistema operativo Solaris
9
Prefacio
Convenciones tipogrficas
La siguiente tabla describe las convenciones tipogrficas utilizadas en este manual.
TA B L A P1
Convenciones tipogrficas
Significado Ejemplo
Tipo de letra
AaBbCc123
Los nombres de comandos, archivos y directorios, as como la salida del equipo en pantalla.
Edite el archivo .login . Utilice el comando ls -a para mostrar todos los archivos. machine_name% tiene correo.
AaBbCc123
Lo que se escribe en contraposicin con la salida del equipo en pantalla. Marcador de posicin: debe sustituirse por un valor o nombre real. Ttulos de manuales, trminos nuevos y palabras destacables.
machine_name% su Contrasea: El comando necesario para eliminar un archivo es rm filename. Consulte el captulo 6 de la Gua del usuario. Una copia en cach es la que se almacena localmente. No guarde el archivo. Nota: algunos elementos destacados aparecen en negrita en lnea.
aabbcc123
AaBbCc123
Shell Bash, Shell Korn y Shell Bourne Shell Bash, Shell Korn y Shell Bourne para superusuario Shell C
10
$ # machine_name%
machine_name#(nm_nombre_equipo)
Prefacio
1 1
Documentacin relacionada
Puede encontrar informacin sobre temas referentes al software Oracle Solaris Cluster en la documentacin enumerada en la tabla siguiente. Toda la documentacin sobre Oracle Solaris Cluster est disponible en http://docs.sun.com .
Tema Documentacin
Introduccin
Oracle Solaris Cluster Overview Oracle Solaris Cluster 3.3 Documentation Center
Conceptos Administracin e instalacin de software Instalacin de software Administracin e instalacin de servicio de datos Desarrollo de servicio de datos Administracin del sistema
Oracle Solaris Cluster ConceptsGuide Oracle Solaris Cluster 3.3 Hardware Administration Manual Guas de administracin de hardware individual Oracle Solaris Cluster Software Installation Guide Oracle Solaris Cluster Data ServicesPlanning and Administration Guide Guas de servicio de datos individual Oracle Solaris Cluster Data ServicesDeveloper s Guide Gua de administracin del sistema de Oracle Solaris Cluster Oracle Solaris Cluster Quick Reference
Oracle Solaris Cluster ReferenceManual Oracle Solaris Cluster Data ServicesReferenceManual Oracle Solaris Cluster Quorum Server ReferenceManual
Para obtener una lista completa de la documentacin de Oracle Solaris Cluster, consulte las notas de la versin de software Oracle Solaris Cluster en http://wikis.sun.com/display/ SunCluster/ Home/ .
productos ni otros materiales disponibles en dichos sitios o recursos, o a travs de ellos. Oracle
tampoco se hace responsable de ninguna prdida real o supuesta que se derive del uso de los contenidos, artculos o servicios que estn disponibles a travs de estos sitios o recursos (o que pueda estar relacionada con ellos).
Documentacin (http://docs.sun.com ) Asistencia (http://www.oracle.com/us/support/systems/index.html ) Formacin (http://education.oracle.com ): haga clic en el vnculo de la izquierda.
ofrece
Comente problemas tcnicos y soluciones en los foros de debate (h ttp :// forums.oracle.com ). Consulte cursos prcticos con Oracle por ejemplo (http://www.oracle.com/technology/ obe/start/index.html ). Descargue cdigo de ejemplo (http://www.oracle.com/technology/sample_code/ index.html ).
Obtencin de ayuda
Si tiene problemas durante la instalacin o utilizacin del software Oracle Solaris Cluster, pngase en contacto con su proveedor de servicios y proporcione la informacin siguiente.
Su nombre y direccin de correo electrnico (si estuviera disponible) El nombre, direccin y nmero de telfono de su empresa Los modelos y nmeros de serie de sus sistemas El nmero de versin del sistema operativo Oracle Solaris (por ejemplo, Oracle Solaris 10) El nmero de versin de Oracle Solaris Cluster (por ejemplo, Oracle Solaris Cluster 3.3)
Use los comandos siguientes para reunir informacin sobre el sistema para el proveedor de servicios.
Comando
Funcin
Muestra el tamao de la memoria del sistema y ofrece informacin sobre los dispositivos perifricos. Muestra informacin acerca de los procesadores. Indica los parches instalados. Muestra informacin de diagnstico del sistema. Muestra informacin sobre la versin y el paquete de Oracle Solaris Cluster.
14
C A P T U L O
En este captulo, se proporciona informacin y se incluyen las directrices especficas de una configuracin de Oracle Solaris Cluster 3.3. En este captulo, se ofrece la siguiente informacin general: Bsqueda de tareas de instalacin de Oracle Solaris Cluster en la pgina 15 Planificacin del sistema operativo Oracle Solaris en la pgina 16 Planificacin del entorno de Oracle Solaris Cluster en la pgina 26 Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster en la pgina 46 Planificacin de la administracin de volmenes en la pgina 53
Oracle Solaris Cluster 3.3 Hardware Administration Manual Documentacin incluida con el servidor y los dispositivos de almacenamiento
Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster Hojas de trabajo de instalacin y configuracin en la pgina 272
15
16
TA B L A11 Tarea
(Continuacin)
Establezca un nuevo clster global o un nuevo nodo del clster global. Configure el software Solaris Volume Manager.
Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86 Configuracin del software Solaris Volume Manager en la pgina 171 Documentacin de Solaris Volume Manager
Instale y configure el software Veritas Volume Manager (VxVM). Instalacin y configuracin del software VxVM en la pgina 199 Documentacin de VxVM Configure los sistemas de archivos del clster si es necesario. (Opcional) Cree zonas no globales. (Opcional) Cree clsteres de zona. (Opcional) SPARC: Instale y configure el mdulo de Oracle Solaris Cluster en Sun Management Center . Cmo crear sistemas de archivos del clster en la pgina 217 Configuracin de una zona no global en un nodo del clster global en la pgina 223 Configuracin de un clster de zona en la pgina 229 SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Documentacin de Sun Management Center Planifique, instale y configure los grupos de recursos y los servicios de datos. Cree sistemas de archivos locales de alta disponibilidad si es necesario. Desarrolle servicios de datos personalizados. Oracle Solaris Cluster Data Services Planning and Administration Guide Oracle Solaris Cluster Data ServicesDeveloper s Guide
Directrices para seleccionar el mtodo de instalacin de Solaris en la pgina 17 Restricciones de las funciones del sistema operativo Oracle Solaris en la pgina 17 Consideraciones sobre los grupos de software de Solaris en la pgina 18 Particiones de disco del sistema en la pgina 19 Directrices para zonas no globales en un clster global en la pgina 22 SPARC: Directrices para Sun Logical Domains en un clster en la pgina 24
Para obtener ms informacin sobre el software de Solaris, consulte la documentacin de instalacin de Solaris.
17
Zonas de Solaris : instale el software de la estructura de Oracle Solaris Cluster slo en la zona global. Para determinar si puede instalar directamente un servicio de datos de Oracle Solaris Cluster en una zona no global, consulte la documentacin de ese servicio de datos. Si configura zonas no globales en un nodo del clster global, debe habilitarse el sistema de archivos de bucle invertido (LOFS). Consulte la informacin de LOFS para obtener consideraciones adicionales.
Sistema de archivos de bucle invertido (LOFS): durante la creacin del clster, la funcin LOFS se habilita de forma predeterminada. Si el clster cumple las dos condiciones que aparecen a continuacin, debe inhabilitar LOFS para evitar problemas de conmutacin u otro tipo de errores:
Oracle Solaris Cluster HA para NFS (HA para NFS) est configurado en un sistema de archivos local de alta disponibilidad. Se est ejecutando el daemon automountd.
Si el clster cumple slo con una de estas condiciones, podr habilitar de forma segura LOFS. Si es necesario habilitar LOFS y el daemon automountd, excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS.
Captulo 1 Planificacinde la configuracinde OracleSolaris Cluster 17
Apagado automtico para ahorro de energa: no se admite el apagado automtico para ahorro de energa en las configuraciones de Oracle Solaris Cluster y, por lo tanto, no debe habilitarse. Consulte las pginas de comando man pmconfig(1M) y power.conf(4) para obtener ms informacin. Filtro IP: el software Oracle Solaris Cluster no admite la funcin de filtro IP de Solaris para servicios escalables, pero s para los servicios de migracin tras error. Tenga en cuenta las directrices y restricciones siguientes al configurar el filtro IP de Solaris en un clster:
No se admite el enrutamiento de NAT. No se admite el uso de NAT para la conversin de direcciones locales. Durante la conversin de NAT, se reescriben los paquetes en lnea y, por lo tanto, el proceso es transparente para el software del clster. No se admiten reglas de filtrado con datos de estado, slo se permite el filtrado con datos sin estado. Oracle Solaris Cluster se basa en Multirruta de red IP (IPMP) para la supervisin de redes pblicas, cosa que no funciona con reglas de filtrado con datos de estado.
fssnap : el software Oracle Solaris Cluster no admite el comando fssnap, que es una funcin de UFS. Sin embargo, se puede utilizar el comando fssnap en los sistemas locales que no estn controlados por el software Oracle Solaris Cluster. Las siguientes restricciones se aplican a la compatibilidad con fssnap :
El comando fssnap se admite en sistemas de archivos locales que no estn administrados por el software Oracle Solaris Cluster. El comando fssnap no se admite en los sistemas de archivos del clster. El comando fssnap no se admite en sistemas de archivos locales bajo el control de HAStoragePlus.
Servidores : consulte la documentacin del servidor para conocer los requisitos de software de Solaris. Por ejemplo, los servidores Sun Enterprise 10000 requieren el grupo de software de Solaris completo ms la compatibilidad con OEM. Paquetes de Solaris adicionales: cabe la posibilidad de que tenga que instalar otros paquetes de Solaris que no formen parte del grupo de software de Solaris de usuario final como, Los paquetes de servidor HTTP de Apache y el software Trusted Extensions son dos ejemplos que precisan paquetes que se encuentran en un grupo de software superior
18
al del
19
usuario final. Es posible que el software de otros proveedores pueda requerir paquetes de software de Solaris adicionales. Consulte la documentacin que lo acompaa para obtener informacin sobre cualquier requisito de software de Solaris.
Consejo Para no tener que instalar manualmente los paquetes de software de Solaris, instale
Intercambio: la cantidad combinada de espacio de intercambio, swap, que se asigne al software de Solaris y Oracle Solaris Cluster no debe ser inferior a 750 MB. Para obtener los mejores resultados, agregue, al menos, 512 MB del espacio asignado a Oracle Solaris Cluster a la cantidad que necesita el sistema operativo Solaris. Adems, asigne la cantidad adicional de espacio de intercambio (swap) necesaria para las aplicaciones que se van a ejecutar en el host de Solaris.
Nota Si crea un archivo swap adicional, no cree el archivo swap en un dispositivo
global. Use slo un dispositivo local como dispositivo swap para el host.
(Opcional) /globaldevices : cree un sistema de archivos con un tamao mnimo de 512 MB que usar la utilidad scinstall(1M) para los dispositivos globales. Si utiliza en su lugar un dispositivo lofi , no es necesario crear este sistema de archivos. Desde una perspectiva funcional, las dos opciones son equivalentes. Administrador de volmenes: cree una particin de 20 MB en el segmento 7 de manera que el administrador de volmenes la pueda utilizar. Si el clster utiliza Veritas Volume Manager (VxVM) y desea encapsular el disco raz, debe contar con dos segmentos libres a disposicin de VxVM.
Para cumplir estos requisitos, debe personalizar la particin si va a efectuar una instalacin interactiva del SO Solaris. Consulte las directrices siguientes para obtener informacin adicional sobre la planificacin de la particin:
Directrices para el sistema de archivos raz (/) en la pgina 20 Directrices para el sistema de archivos /globaldevices en la pgina 20 Requisitos del administrador de volmenes en la pgina 21
20
raz (/): el software Oracle Solaris Cluster ocupa menos de 40 MB en el sistema de archivos raz (/). El software Solaris Volume Manager necesita menos de 5 MB, y el software VxVM menos de 15 MB. Para configurar un espacio adicional y una capacidad de inode suficientes, aada al menos 100 MB al espacio que normalmente asignara en el sistema de archivos raz ( /). Este espacio se utiliza para crear los dispositivos especiales de bloques y de caracteres utilizados por el software de administracin de volmenes. Debe asignar este espacio adicional, sobre todo, si hay un gran nmero de discos compartidos en el clster. En el SO Solaris 10, si desea utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, debe disponer de 100 MB de espacio libre.
/var : el software Oracle Solaris Cluster ocupa un espacio insignificante en el sistema de archivos/var en el momento de la instalacin. No obstante, es necesario reservar espacio suficiente para los archivos de registro. Adems, es posible que en un nodo del clster se registren ms mensajes de los que se encontraran en un servidor independiente normal. Por lo tanto, disponga, al menos, de 100 MB para el sistema de archivos /var . /usr : el software Oracle Solaris Cluster ocupa menos de 25 MB en el sistema de archivos /usr . Solaris Volume Manager y VxVM requieren cada uno menos de 15 MB. /opt : el software de la estructura de Oracle Solaris Cluster utiliza menos de 2 MB en el sistema de archivos /opt . Sin embargo, es posible que cada servicio de datos de Oracle Solaris Cluster utilice entre 1 y 5 MB. El software Solaris Volume Manager no utiliza ningn espacio en el sistema de archivos /opt . El software VxVM puede utilizar ms de 40 MB si se han instalado todos sus paquetes y herramientas. Adems, la mayora del software de bases de datos y aplicaciones se instala en el sistema de archivos /opt . SPARC: Si utiliza el software Sun Management Center para supervisar el clster, necesita un espacio adicional de 25 MB en cada host de Solaris para poder utilizar el agente de Sun Management Center y los paquetes de mdulos de Oracle Solaris Cluster.
En esta seccin se proporcionan directrices de uso de una particin dedicada. Esta informacin no es relevante si aloja el espacio de nombres de los dispositivos globales en un dispositivo lofi . El sistema de archivos /globaldevices se encuentra normalmente en el disco raz. Sin embargo, si utiliza un almacenamiento diferente para alojar el sistema de archivos de los dispositivos globales, como un volumen del administrador de volmenes lgico, ste no puede formar parte del conjunto de discos compartidos de Solaris Volume Manager ni de un grupo de discos de VxVM distinto al grupo de discos raz. Este sistema de archivos se monta posteriormente como un sistema de archivos UFS del clster. Asigne a este sistema de archivos el nombre /globaldevices , ya que as es como lo reconoce de forma predeterminada el comando scinstall (1M).
Nota Slo se permite el tipo UFS para el sistema de archivos de dispositivos globales.
No intente cambiar el tipo de sistema de archivos una vez creado el sistema de archivos de dispositivos globales. Sin embargo, un sistema de archivos UFS de dispositivos globales puede coexistir en un nodo con otros sistemas de archivos raz que utilicen ZFS. El comando scinstall cambia el nombre del sistema de archivos por /global/.devices/node@ id_nodo , donde id_nodo representa el nmero asignado a un host de Solaris cuando se convierte en miembro del clster global. Se elimina el punto de montaje original /globaldevices . El sistema de archivos /globaldevices debe tener espacio y capacidad de inode suficientes para crear los dispositivos especiales de bloques y de caracteres. Esta directriz resulta especialmente importante si hay una gran cantidad de discos en el clster. Para la mayora de las configuraciones del clster, debera bastar con un sistema de archivos de 512 MB.
Segmento
6,75 GB
Espacio libre que queda en el disco despus de asignar espacio a los segmentos del 1 al 7. Se utiliza para el sistema operativo Solaris, el software Oracle Solaris Cluster, el software de servicios de datos, el software del administrador de volmenes, los paquetes del agente Sun Management Center y del agente del mdulo de Oracle Solaris Cluster, los sistemas de archivos raz, y el software de bases de datos y aplicaciones. 512 MB para el SO Solaris. 512 MB para el software Oracle Solaris Cluster.
swap
1 GB
2 3
superposicin /globaldevices
8,43 GB 512 MB
Todo el disco. El software Oracle Solaris Cluster asigna posteriormente a este segmento un punto de montaje diferente y lo monta como un sistema de archivos del clster. Si decide utilizar un dispositivo lofi en lugar de una particin dedicada, deje libre el segmento 3. Disponible como segmento libre para encapsular el disco raz en VxVM. Lo utiliza el software Solaris Volume Manager para la rplica de la base de datos de estado o VxVM para efectuar la instalacin despus de liberar el segmento.
4 5 6 7
20 MB
Para obtener ms informacin acerca de la finalidad y la funcin de las zonas de Solaris en un clster, consulte Support for Oracle Solaris Zones de Oracle Solaris Cluster Concepts Guide.
24
Para obtener directrices sobre cmo configurar un clster de zonas no globales, consulte la seccin clsteres de zona en la pgina 43. Tenga en cuenta los puntos siguientes a la hora de crear una zona no global de Solaris 10, denominada simplemente zona, en un nodo del clster.
Nombre de zona exclusivo : el nombre de zona tiene que ser exclusivo en el host de Solaris. Reutilizar un nombre de zona en varios nodos: para simplificar la administracin del clster, puede usar el mismo nombre para una zona con todos los nodos en los que los grupos de recursos vayan a ponerse en lnea. Direcciones IP privadas: no intente usar ms direcciones privadas de las que estn disponibles en el clster. Montajes : no incluya montajes globales en las definiciones de zona. Incluya slo montajes de bucle. Servicios de migracin tras error: en los clsteres de varios host, aunque el software Oracle Solaris Cluster le permite especificar zonas diferentes del mismo host de Solaris en una lista de nodos del grupo de recursos de migracin tras error, esto slo le resultar til durante las pruebas. Si un nico host tiene todas las zonas de la lista de nodos, el nodo se convierte en un slo punto de error para el grupo de recursos. Para obtener una disponibilidad ms alta, las zonas de la lista de nodos del grupo de recursos de migracin tras error deberan estar en hosts distintos. En los clsteres de host nico, no habr ningn riesgo de funcionamiento si especifica varias zonas en una lista de nodos del grupo de recursos de migracin tras error.
Servicios escalables : no cree zonas no globales para utilizarlas en el mismo servicio escalable del mismo host de Solaris. Cada instancia del servicio escalable se debe ejecutar en un host distinto. Sistemas de archivos del clster: para los sistemas de archivos del clster que utilicen UFS o VxFS, no agregue directamente un sistema de archivos del clster a una zona no global mediante el comando zonecfs. En su lugar, configure un recurso de HAStoragePlus, que administre el montaje del sistema de archivos del clster en la zona global y lleve a cabo el montaje de bucle del sistema de archivos del clster en la zona no global. LOFS: Solaris Zones necesita que el sistema de archivos de bucle (Loopback File System, LOFS) est activado. Sin embargo, el servicio de datos de Oracle Solaris Cluster HA para NFS requiere que el LOFS est inhabilitado para evitar problemas de conmutacin u otros errores. Si configura zonas no globales y Oracle Solaris Cluster HA para NFS en el clster, elija y ponga en prctica una de las siguientes opciones para evitar posibles problemas en el servicio de datos:
Inhabilite el daemon automountd. Excluya del mapa del montador automtico todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por Oracle Solaris Cluster HA para NFS.
Zonas de IP exclusiva: las siguientes directrices se aplican especficamente a las zonas no globales de IP exclusiva:
Grupos de recursos de nombre de host: en un grupo de recursos que contenga un recurso LogicalHostname, si la lista de nodos incluye una zona no global con la propiedad de ip-type establecida en exclusive , todas las zonas de dicha lista deben tener la propiedad establecida en exclusive . Tenga en cuenta que una zona global siempre tiene la propiedad ip-type establecida en shared, de forma que no puede coexistir en una lista de nodos que contenga zonas de ip-type=exclusive . Esta restriccin slo se aplica a las versiones del SO Solaris que utilicen la propiedad iptype de las zonas de Solaris. Grupos de IPMP: para todos los adaptadores de red pblica que se utilizan para el trfico del servicio de datos en la zona no global, debe configurar los grupos de IPMP de forma manual en todos los archivos /etc/hostname. adaptador de la zona. Esta informacin no se hereda de la zona global. Para obtener instrucciones y directrices de configuracin de grupos IPMP, siga los procedimientos descritos en Parte VI, IPMP de Gua de administracin del sistema:serviciosIP. Dependencia del nombre de host privado: las zonas de IP exclusiva no pueden depender de los nombres de host privados y las direcciones privadas del clster. Recursos de direccin compartida: los recursos de direccin compartida no pueden usar zonas de IP exclusiva.
Requisito de LUN SCSI: el dispositivo de almacenamiento virtual o backend de disco virtual de un dominio invitado de LDoms debe ser un LUN SCSI completo en el dominio de E/S. No se puede utilizar un dispositivo virtual arbitrario. Aislamiento: no exporte un LUN de almacenamiento a ms de un dominio invitado en el mismo equipo fsico a menos que inhabilite tambin el aislamiento para ese dispositivo. De lo contrario, si dos dominios invitados diferentes se encuentran en un mismo equipo y los dos estn visibles para un dispositivo, este dispositivo se aislar cada vez que se finalice uno de los dominios invitados. El aislamiento del dispositivo generar un error grave en los dems dominios invitados que intenten acceder posteriormente al dispositivo. Aislamiento de red: los dominios invitados que residen en el mismo equipo fsico, pero que se configuran en clsteres diferentes, deben encontrarse en la red aislados entre s. Utilice uno de los mtodos siguientes:
Configure los clsteres para que utilicen diferentes interfaces de red en el dominio de E/S de la red privada. Utilice diferentes direcciones de red para cada uno de los clsteres.
Funciones de red en los dominios invitados: los paquetes de red que se transfieren a los dominios invitados y que proceden de ellos deben atravesar los dominios de servicios para acceder a los controladores de red mediante los conmutadores virtuales. Los conmutadores virtuales utilizan subprocesos del ncleo que se ejecutan con prioridad del sistema. Los subprocesos de conmutadores virtuales deben poder adquirir los recursos de CPU necesarios para realizar operaciones vitales del clster, incluidos los puntos de control, las respuestas, la pertenencia, etc. Al configurar los conmutadores virtuales con la opcin mode=sc,se habilita la administracin acelerada de los paquetes de respuestas del clster. Sin embargo, la fiabilidad de las dems operaciones vitales del clster pueden mejorarse aadiendo ms recursos de CPU al dominio de servicios bajo las siguientes cargas de trabajo:
Por ejemplo, la carga de alta interrupcin debido a la E/S de disco o red. Bajo una carga excesiva, los conmutadores pueden impedir que los subprocesos del sistema se ejecuten durante un largo periodo de tiempo, incluidos los subprocesos de conmutadores virtuales. Subprocesos en tiempo real que presentan un comportamiento excesivamente agresivo al conservar los recursos de CPU. Los subprocesos en tiempo real se ejecutan con una prioridad superior a los subprocesos de conmutadores virtuales, lo que puede limitar los recursos de CPU de los subprocesos de conmutadores virtuales durante un amplio periodo de tiempo.
Almacenamiento no compartido: para el almacenamiento no compartido, como las imgenes de sistema operativo de dominios invitados de LDoms, se puede utilizar cualquier clase de dispositivo virtual. Puede usar estos dispositivos virtuales con cualquier elemento del dominio de E/S como, por ejemplo, los archivos o los volmenes. No obstante, no copie archivos ni clone volmenes en el dominio de E/S para asignarlos a diferentes dominios invitados del mismo clster. Estas acciones provocaran problemas, ya que los dispositivos virtuales resultantes presentaran la misma identidad de dispositivo en dominios invitados diferentes. Cree siempre un nuevo archivo o dispositivo en el dominio de E/S, que recibir una identidad de dispositivo exclusiva, y, a continuacin, asgnelo a un dominio invitado diferente. Exportacin del almacenamiento desde dispositivos de E/S: si configura un clster formado por dominios de E/S de LDoms, no exporte sus dispositivos de almacenamiento a otros dominios invitados que ejecuten tambin el software Oracle Solaris Cluster. Multirruta de E/S de Solaris: no ejecute el software multirruta de E/S de Solaris (MPxIO) desde dominios invitados. En su lugar, ejectelo en el dominio de E/S y exprtelo a los dominios invitados. Rango de direcciones IP de interconexin privada: todos los dominios invitados creados en el mismo equipo fsico comparten la red privada, que est visible para todos estos dominios. Antes de especificar un rango de direcciones IP de red privada en la
utilidad
scinstall para que lo utilice el clster de dominios invitados, asegrese de que otro dominio invitado del mismo equipo fsico no est utilizando ya este rango. Para obtener ms informacin sobre Sun Logical Domains, consulte LogicalDomains (LDoms) 1.0.3 Administration Guide.
Licencias en la pgina 26 Parches de software en la pgina 26 Direcciones IP de red pblica en la pgina 27 Dispositivos de acceso a la consola en la pgina 28 Direcciones lgicas en la pgina 28 Redes pblicas en la pgina 28 Servidores del qurum en la pgina 30 Directrices de NFS en la pgina 30 Restricciones de servicio en la pgina 31 Protocolo de tiempo de red (NTP) en la pgina 33 Componentes configurables de Oracle Solaris Cluster en la pgina 33 clsteres de zona en la pgina 43
Para obtener informacin detallada sobre los componentes de Oracle Solaris Cluster, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.
L icencias
Asegrese de que dispone de todas los certificados de licencia necesarios antes de iniciar la instalacin del software. El software Oracle Solaris Cluster no requiere un certificado de licencia, pero cada nodo instalado con l debe estar cubierto por el acuerdo de licencia de software Oracle Solaris Cluster. Para conocer los requisitos de licencia del software del administrador de volmenes y de las aplicaciones, consulte la documentacin de instalacin de estos productos
Parches de software
Despus de instalar los productos de software, debe instalar tambin los parches necesarios. Para garantizar el correcto funcionamiento del clster, asegrese de que todos
Para obtener informacin acerca de los parches necesarios, consulte Parches y niveles de firmware necesarios en las Notas de la versin de Sun Cluster o pngase en contacto con su proveedor de servicios de Oracle. Para obtener directrices y procedimientos para aplicar los parches, consulte el Captulo 11, Aplicacin de parches en el software y el firmware de Oracle Solaris Cluster de Gua de administracin del sistema de Oracle Solaris Cluster.
Cualquier servicio de nombres utilizado. El archivo /etc/inet/hosts el software de Solaris. El archivo /etc/inet/hosts local en cada nodo del clster global despus de instalar local en cualquier zona no global con una IP
exclusiva. TA B L A13 Componentes de Oracle Solaris Cluster que utilizan direcciones IP de red
pblica Componen te
Consola de administracin Nodos del clster global subred. Nodos del clster de zona por subred. Interfaz de red de la consola de dominio (Sun Fire 15000) (Opcional) Zonas no globales subred. Dispositivo de acceso a la consola Direcciones lgicas 1 direccin IP por dominio.
Nmero de direcciones IP necesarias
1 direccin IP por subred. 1 direccin IP por nodo y por 1 direccin IP por nodo y
1 direccin IP por 1 direccin IP. 1 direccin IP por recurso de host lgico y por subred.
Para obtener ms informacin acerca de la planificacin de direcciones IP, consulte el Captulo 2, Planificacin de la red TCP/IP (tareas) de Gua de administracin del sistema:serviciosIP.
S e utiliza un concentrador de terminales para establecer comunicacin entre la consola de administracin y las consolas de los nodos del clster global. El servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP) en lugar de un concentrador de terminales. El servidor Sun Fire utiliza un controlador del sistema en lugar de un concentrador de terminales.
Para obtener ms informacin sobre el acceso a la consola, consulte Oracle Solaris Cluster Concepts Guide. De forma alternativa, si conecta una consola de administracin directamente a los nodos del clster o a travs de una red de administracin, proporcione el nombre de host de cada uno de los nodos del clster y el nmero de puerto serie que se utiliza para establecer conexin con la consola o la red de administracin.
Direcciones lgicas
En cada grupo de recursos de servicios de datos que utilice una direccin lgica, se debe especificar un nombre del sistema para cada red pblica desde la que se puede acceder a la direccin lgica. Para obtener ms informacin, consulte Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Para obtener ms informacin sobre recursos y servicios de datos, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.
Redes pblicas
Las redes pblicas se comunican fuera del clster. Tenga en cuenta los siguientes aspectos al planificar la configuracin de red pblica:
Separacin de red pblica y red privada: las redes pblicas y la red privada (interconexin del clster) deben utilizar adaptadores independientes, o se deben configurar VLAN etiquetadas en adaptadores compatibles con VLAN etiquetadas y conmutadores compatibles con VLAN para que utilicen el mismo adaptador con la interconexin privada y con la red pblica. Mnimo: todos los nodos del clster deben conectarse, al menos, a una red pblica. Las conexiones de red pblica pueden utilizar diferentes subredes para los distintos nodos.
Mxim a: puede tener todas las conexiones de red pblica adicionales que permita su configuracin de hardware. Servicios escalables : todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes, o utilizar diferentes subredes que puedan enrutarse entre s. IPv4: el software Oracle Solaris Cluster admite direcciones IPv4 en la red pblica. IPv6: el software Oracle Solaris Cluster admite direcciones IPv6 en la red pblica si se dan las siguientes condiciones o restricciones:
El software Oracle Solaris Cluster no admite las direcciones IPv6 de la red pblica si la interconexin privada utiliza adaptadores SCI. El software Oracle Solaris Cluster admite las direcciones IPv6 para los servicios de datos escalables y de migracin tras error.
Grupos IPM P : cada adaptador de red pblica utilizado para el trfico de servicios de datos debe pertenecer a un grupo Multirruta de red IP (IPMP). Si no se utiliza un adaptador de red pblica para el trfico de servicios de datos, no es necesario que lo configure en un grupo IPMP. La utilidad scinstall configura automticamente un grupo IPMP de varios adaptadores para cada conjunto de adaptadores de la red pblica en el clster que utiliza la misma subred. Estos grupos se basan en sondeos. La utilidadscinstall omite los adaptadores que ya se han configurado en un grupo IPMP. Puede utilizar grupos IPMP basados en sondeos o vnculos en un clster. No obstante, los grupos IPMP basados en sondeos, que prueban la direccin IP de destino, proporcionan la mayor proteccin mediante el reconocimiento de ms condiciones que pueden poner en peligro la disponibilidad. Si un adaptador de un grupo IPMP que la utilidad scinstall configura no va a utilizarse para el trfico de servicios de datos, puede eliminar dicho adaptador del grupo. Para obtener instrucciones y directrices de configuracin de grupos IPMP, siga los procedimientos descritos en Parte VI, IPMP de Gua de administracin del sistema: serviciosIP. Para modificar los grupos IPMP despus de instalar el clster, siga las directrices que aparecen en la seccin Administracin de grupos de varias rutas de red IP en un clster de Gua de administracin del sistema de Oracle Solaris Cluster y los procedimientos del Captulo 31, Administracin de IPMP (tareas) de Gua de administracin del sistema: serviciosIP.
Compatibilidad con direcciones MAC locales: Todos los adaptadores de red pblica deben utilizar tarjetas de interfaz de red (NIC) que sean compatibles con la asignacin de direcciones MAC locales. La asignacin de direcciones MAC locales supone un requisito de IPMP. Valor de local-mac-address : la variable local-mac-address? debe utilizar el valor predeterminado true (verdadero) para los adaptadores Ethernet. El software Oracle Solaris Cluster no admite el valor false (falso) de local-mac-address? para los
adaptadores Ethernet.
Para obtener ms informacin sobre las interfaces de red pblica, consulte Oracle Solaris Cluster Concepts Guide .
Conexin de red: el equipo del servidor de qurum se conecta al clster mediante la red pblica. Hardware admitido: las plataformas de hardware compatibles con un servidor de qurum son las mismas que las de un nodo del clster global. Sistema operativo: los requisitos del software Oracle Solaris Cluster se aplican tambin al software del servidor de qurum. Servicio para varios clsteres : puede configurar un servidor de qurum como dispositivo del qurum para ms de un clster. Combinacin de hardwarey software : no es necesario que configure un servidor de qurum en la misma plataforma de hardware y software que el clster o los clsteres para los que se proporciona el qurum. Por ejemplo, un equipo basado en SPARC que se ejecute en el SO Solaris 10se puede configurar como servidor de qurum para un clster basado en x86 que se ejecute en el SO Solaris 10. Algoritmo de rbol de expansin: debe inhabilitar el algoritmo de rbol en los conmutadores Ethernet para los puertos conectados a la red pblica del clster en la que se ejecutar el servidor de qurum. Uso de un nodo del clster como servidor de qurum: puede configurar un servidor de qurum en un nodo del clster para proporcionar qurum a otros clsteres distintos al clster al que pertenece el nodo. Sin embargo, un servidor de qurum configurado en un nodo del clster no proporcionar alta disponibilidad.
Directrices de NFS
Tenga en cuenta los siguientes aspectos al planificar el uso del sistema de archivos de red (NFS) en una configuracin de Oracle Solaris Cluster.
Cliente NFS: ningn nodo de Oracle Solaris Cluster puede ser un cliente NFS de un sistema de archivos exportado de Oracle Solaris Cluster HA para NFS (HA para NFS) que se est supervisando en un nodo del mismo clster. Esta clase de montaje cruzado de HA para NFS no est permitido. Utilice el sistema de archivos del clster para compartir los archivos entre los nodos del clster. Protocolo NFSv3: si est montando sistemas de archivos en los nodos del clster desde servidores NFS externos, como archivos NAS, y est utilizando el protocolo NFSv3, no podr ejecutar montajes de cliente NFS y los servicios de datos de HA para NFS en el mismo nodo del clster. Si lo hace, determinadas actividades del servicio de datos de HA para NFS podran provocar que los daemons NFS se detengan y se reinicien, con lo cual se interrumpiran los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clster. Bloqueo: las aplicaciones que se ejecuten de forma local en el clster no deben bloquear los archivos en un sistema de archivos exportado mediante NFS. De lo contrario, el bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podra interferir en la capacidad para reiniciar el administrador de bloqueos (lockd(1M)). Durante el reinicio, se puede conceder a un proceso local bloqueado un bloqueo destinado a que un cliente remoto lo solicite. Esto podra provocar un comportamiento inesperado. Funciones de seguridad de NFS: el software Oracle Solaris Cluster no admite las siguientes opciones del comando share_nfs (1M):
secure sec=dh
Sin embargo, el software Oracle Solaris Cluster s admite las siguientes funciones de seguridad de NFS:
El uso de puertos seguros para NFS. Para habilitar los puertos seguros de NFS, agregue el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clster. El uso de Kerberos con NFS. Para obtener ms informacin, consulte Securing HA for NFS With Kerberos V5 de Oracle Solaris Cluster Data Service for Network File System (NFS) Guide. Aislamiento: los clsteres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.
Restricciones de servicio
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Oracle Solaris Cluster:
Enrutadores : no configure los nodos del clster como enrutadores (portales) por los siguientes motivos:
Es posible que los protocolos de enrutamiento difundan la interconexin del clster como una red de acceso pblico a otros enrutadores a pesar de la configuracin de IFF_PR IV ATE en las interfaces de interconexin. Los protocolos de enrutamiento pueden interferir en la migracin tras error de las direcciones IP en los nodos del clster, lo que podra afectar a la accesibilidad del cliente. Los protocolos de enrutamiento pueden poner en peligro el correcto funcionamiento de los servicios escalables al aceptar paquetes de red de cliente y soltarlos en lugar de reenviarlos a otros nodos del clster.
Servidores NIS+: no configure los nodos del clster como servidores NIS o NIS+. No hay ningn servicio de datos disponible para NIS o NIS+. Sin embargo, los nodos del clster pueden ser clientes NIS o NIS+. Servidores de inicio e instalacin: no utilice una configuracin de Oracle Solaris Cluster para proporcionar un servicio de inicio o instalacin de alta disponibilidad en los sistemas cliente. RARP : No utilice una configuracin de Oracle Solaris Cluster para proporcionar un servicio rarpd . Nmeros de programa RPC: si instala un servicio RPC en el clster, ste no debe utilizar ninguno de los siguientes nmeros de programa:
Estos nmeros se reservan para los daemons rgmd_receptionist , fed y pmfd de Oracle Solaris Cluster, respectivamente. Si el servicio RPC que instale utiliza tambin uno de estos nmeros de programas, deber cambiarlo para que utilice un nmero de programa diferente.
Clases de programacin : el software Oracle Solaris Cluster no admite la ejecucin de clases de programacin de procesos de alta prioridad en los nodos del clster. No ejecute ninguno de los siguientes tipos de procesos en los nodos del clster:
Los procesos que se ejecutan en la clase de programacin de tiempo compartido con alta prioridad Los procesos que se ejecutan en la clase de programacin en tiempo real
El software Oracle Solaris Cluster utiliza los subprocesos del ncleo que no se ejecutan en la clase de programacin en tiempo real. Otros procesos de tiempo compartido que se ejecutan con una prioridad superior a la normal o los procesos en tiempo real pueden evitar que los subprocesos del ncleo de Oracle Solaris Cluster adquieran los ciclos de CPU necesarios.
Sincronizacin : al configurar NTP o cualquier utilidad de sincronizacin de tiempo en el clster, el primer requisito consiste en que todos los nodos del clster deben sincronizarse al mismo tiempo. Precisin: la precisin del tiempo en los nodos es el segundo aspecto importante que debe tener en cuenta durante la sincronizacin del tiempo en los nodos. Puede configurar NTP como mejor desee siempre que se cumpla este requisito bsico de sincronizacin. Mensajes de error acerca de nodos inexistentes: a menos que haya instalado su propio archivo /etc/inet/ntp.conf , el comando scinstall instala automticamente un archivo ntp.conf predeterminado. Este archivo predeterminado incluye referencias al nmero mximo de nodos. Por lo tanto, es posible que el daemon xntpd(1M) emita mensajes de error en relacin con algunas de estas referencias durante el inicio. Puede omitir con seguridad estos mensajes. Consulte la seccin Cmo configurar Network Time Protocol (NTP) en la pgina 164 para obtener informacin acerca de cmo suprimir estos mensajes cuando se den las condiciones normales en el clster.
Consulte Oracle Solaris Cluster Concepts Guide para obtener ms informacin sobre el tiempo del clster. Consulte el archivo de plantilla /etc/inet/ntp.cluster para obtener directrices adicionales acerca de cmo establecer NTP para una configuracin de Oracle Solaris Cluster.
Nombre del clster global en la pgina 33 Nombres de los nodos de votacin de clster global e identificadores de nodos en la pgina 34 Nombres de zonas en la pgina 34 Red privada en la pgina 35 Nombres de host privados en la pgina 37 Interconexin del clster en la pgina 37 Aislamiento global en la pgina 40 Dispositivos de qurum en la pgina 41
Cluster. El nombre del clster global debe ser exclusivo en toda la empresa.
Para obtener informacin sobre cmo asignar un nombre a un clster de zona, consulte la seccin clsteres de zona en la pgina 43.
Nombres de zonas
Una zona no global con la marca native puede ser un posible nodo vlido de una lista de nodos de grupo de recursos. Utilice la convencin de nomenclatura nombre_nodo:nombre_zona para especificar una zona no global en un comando de Oracle Solaris Cluster.
nombre_zona hace referencia al nombre asignado a la zona no global al crearla en el nodo de votacin. El nombre de la zona debe ser exclusivo en el nodo. No obstante, puede utilizar el mismo nombre de zona en diferentes nodos de votacin. El nombre de nodo diferente en nombre_nodo:nombre_zona permite que el nombre de la zona no global completa sea exclusivo en el clster.
Para especificar la zona global, slo debe indicar el nombre del nodo de votacin. Para obtener informacin sobre un clster de zonas no globales, consulte la seccin clsteres de zona en la pgina 43. Puede desactivar funciones de clster de una zona no global seleccionada. Un usuario root registrado en alguna de estas zonas no es capaz de descubrir ni interrumpir el funcionamiento del clster. Para obtener instrucciones, consulte
Red privada
Nota No es necesario configurar una red privada para un clster global con un nico host.
La utilidad scinstall asigna automticamente la direccin de red privada y la mscara de red predeterminadas, incluso aunque el clster no utilice la red privada. El software Oracle Solaris Cluster utiliza la red privada para la comunicacin interna entre los nodos y entre las zonas no globales administradas por Oracle Solaris Cluster. Una configuracin de Oracle Solaris Cluster necesita, al menos, dos conexiones con la interconexin del clster en la red privada. Al configurar el software Oracle Solaris Cluster en el primer nodo del clster, debe especificar la direccin de red privada y la mscara de red de una de las siguientes formas:
Acepte la direccin de red privada (172.16.0.0) y la mscara de red (255.255.240.0 ) predeterminadas. Este intervalo de direcciones IP admite un mximo combinado de 64 nodos de votacin y zonas no globales, un mximo de 12 clsteres de zona y un mximo de 10 redes privadas..
Nota El nmero mximo de nodos de votacin que puede admitir un intervalo de
direcciones IP no refleja el nmero mximo de nodos de votacin que puede admitir actualmente la configuracin de hardware o software.
Especifique una direccin de red privada vlida diferente y acepte la mscara de red predeterminada. Acepte la direccin de red privada predeterminada y especifique una mscara de red diferente. Especifique una direccin de red privada y una mscara de red diferentes.
Si decide especificar una mscara de red diferente, la utilidad scinstall le solicitar el nmero de nodos y de redes privadas que desea que admita el intervalo de direcciones IP. La utilidad tambin solicita que se especifique el nmero de clsteres de zona que desea permitir. El nmero de nodos del clster global que especifique debe incluir tambin el nmero previsto de zonas globales no agrupadas en un clster que utilizar la red privada. La utilidad calcula la mscara de red para el intervalo mnimo de direcciones IP que admitir el nmero de nodos, clsteres de zona y redes privadas que se haya especificado.La mscara de red calculada podra admitir un mayor nmero de nodos de los que se han especificado, incluidas las zonas no globales, los clsteres de zona y las redes privadas. La utilidad scinstall calcula tambin una segunda mscara de red que supondra la mnima para admitir el doble del nmero de nodos, clsteres de zona y redes privadas. Esta segunda mscara de red permitira que el clster pudiera dar cabida a un futuro crecimiento sin necesidad de volver a configurar el intervalo de direcciones IP. A continuacin, la utilidad le pide que seleccione la mscara de red. Puede especificar una de las mscaras de red calculadas o proporcionar una diferente. La mscara de red que especifique debe admitir como mnimo el nmero de nodos y redes privadas que ha indicado en la utilidad.
Nota Es posible que se deba cambiar el rango de direcciones IP privadas del clster para
permitir la adicin de nodos de votacin, zonas no globales, clsteres de zona o redes privadas. Para cambiar la direccin de red privada y la mscara de red una vez establecido el clster, consulte Modificacin de la direccin de red privada o del intervalo de direcciones de un clster de Gua de administracin del sistema de Oracle Solaris Cluster. Debe desactivar el clster para realizar estos cambios. Sin embargo, el clster puede permanecer en el modo de clster si se utiliza el comando cluster set-netprops para cambiar nicamente la mscara de red. Para cualquier clster de zona que se haya configurado en el clster, deben actualizarse tambin las subredes IP privadas y las direcciones IP privadas correspondientes que se hayan asignado a ese clster de zona. Si especifica una direccin de red privada diferente a la predeterminada, sta debe cumplir los siguientes requisitos:
Tamao de la direccin y la mscara de red: la direccin de red privada debe ser inferior a la mscara de red. Por ejemplo, puede utilizar la direccin de red privada 172.16.10.0 con la mscara de red 255.255.255.0. Sin embargo, no puede utilizar la direccin de red privada 172.16.10.0 con la mscara de red 255.255.0.0 . Direcciones: la direccin debe estar incluida en el bloque de direcciones que RFC 1918 reserva para su uso en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en lnea en http://www.rfcs.org. Uso en varios clsteres: puede utilizar la misma direccin de red privada en ms de un
clster, siempre que los clsteres se encuentren en redes privadas diferentes. No se puede acceder a las direcciones IP de red privada fuera del clster.
Los dominios invitados de Sun Sun Logical Domains (LDoms) que se han creado en el mismo equipo fsico y que se encuentran conectados al mismo conmutador virtual comparten la misma direccin de red, que est visible para todos ellos. Tenga cuidado al especificar un intervalo de direcciones IP de red privada en la utilidad scinstall para su uso por parte de los dominios invitados. Asegrese de que el intervalo de direcciones no est siendo utilizado por otro dominio que resida en el mismo equipo fsico y que comparta el conmutador virtual.
VLAN compartidas por varios clsteres: las configuraciones de Oracle Solaris Cluster permiten compartir la misma VLAN de interconexin privada entre varios clsteres. No es necesario configurar una VLAN independiente para cada clster. No obstante, limitar el uso de una VLAN a un solo clster ofrece mejor capacidad de aislamiento de errores y una interconexin ms resistente. IPv6: el software Oracle Solaris Cluster no admite las direcciones IPv6 para la interconexin privada. A pesar de ello, el sistema s configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Sin embargo, no se utilizan estas direcciones IPv6 en la comunicacin entre los nodos en la red privada.
Consulte el Captulo 2, Planificacin de la red TCP/IP (tareas) de Gua de administracin del sistema:serviciosIP para obtener ms informacin sobre las redes privadas.
redes privadas entre los nodos del clster. Cada interconexin consta de un cable que se conecta de uno de los siguientes modos:
Para obtener ms informacin acerca de la finalidad y la funcin de la interconexin del clster, consulte Cluster Interconnect de Oracle Solaris Cluster Concepts Guide.
Nota No es necesario configurar una interconexin del clster para un clster con un nico
host. No obstante, si cree que es posible que necesite agregar nodos a la configuracin del clster con un nico nodo en el futuro, es recomendable que configure la interconexin del clster para usos posteriores. Durante la configuracin de Oracle Solaris Cluster, debe especificar la informacin de configuracin para una o varias interconexiones del clster.
Si el nmero de puertos disponibles del adaptador es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador en las redes pblica y privada. Para obtener ms informacin, consulte las directrices relacionadas con los adaptadores VLAN etiquetadas en Adaptadores de transporte en la pgina 38. Puede configurar de una a seis interconexiones en un clster. Aunque una nica interconexin del clster reduce el nmero de adaptadores utilizados para la interconexin privada, sta no proporciona ninguna redundancia y ofrece una menor disponibilidad. Si la interconexin nica presenta errores, existe un alto riesgo de que el clster tenga que realizar una recuperacin automtica. Siempre que sea posible, instale dos o ms interconexiones del clster para proporcionar redundancia y escalabilidad y, por lo tanto, una mayor disponibilidad, lo que permite evitar la presencia de un punto de error nico.
Puede configurar interconexiones del clster adicionales (hasta seis en total), una vez establecido el clster mediante la utilidad clsetup (1CL). Para obtener directrices sobre el hardware de interconexin del clster, consulte Interconnect Requirements and Restrictions de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener informacin general acerca de la interconexin del clster, consulte Cluster-Interconnect Components de Oracle Solaris Cluster Overview y Oracle Solaris Cluster Concepts Guide.
IPv6: el software Oracle Solaris Cluster no admite las comunicaciones IPv6 a travs de interconexiones privadas.
Asignacin de direcciones MAC locales: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan asignaciones de direcciones MAC locales. Las direcciones IPv6 de vnculo local, necesarias para que los adaptadores de red privada admitan direcciones de red pblica IPv6, se obtienen a partir de las direcciones MAC locales. Adaptadores de VLAN etiquetadas : el software Oracle Solaris Cluster admite redes de rea local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexin del clster privada y la red pblica. Para configurar un adaptador de VLAN etiquetada para la interconexin del clster, especifique el nombre del adaptador y el ID de VLAN (VID) de una de las siguientes formas:
Especifique el nombre habitual del adaptador, que es el nombre del dispositivo ms el nmero de instancia o el punto fsico de conexin (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sera ce2. Si la utilidad scinstall le pregunta si el adaptador forma parte de una LAN virtual compartida, responda yes (s) y especifique el nmero de VID del adaptador. Identifique el adaptador por su nombre de dispositivo virtual VLAN. Este nombre est compuesto por el nombre del adaptador ms el nmero de instancia de VLAN. El nmero de instancia de VLAN se obtiene mediante la frmula (1000*V)+N, siendo V el nmero de VID y N el PPA. Por ejemplo, para VID 73 en el adaptador ce2, el nmero de instancia de VLAN se calcula de la siguiente forma: (1000*73)+2.Por lo tanto, especificar ce73002 como nombre del adaptador para indicar que forma parte de una LAN virtual compartida.
Para obtener informacin sobre cmo configurar una VLAN en un clster, consulte Configuring VLANs as Private Interconnect Networks de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener informacin general sobre VLAN, consulte Administracin de redes de rea local virtuales de Gua de administracin del sistema: serviciosIP.
Dominios invitados de SPARC: Sun Logical Domains: especifique los adaptadores mediante su nombre virtual, vnetN, por ejemplo vnet0 y vnet1. Los nombres de adaptadores virtuales se registran en el archivo /etc/path_to_inst . Interfaces de red lgicas: las interfaces de red lgicas se reservan para que las utilice el software Oracle Solaris Cluster.
Consulte el conjunto scconf_trans_adap_*(1M) de pginas de comando man para obtener informacin acerca de un adaptador de transporte especfico.
Especifique tambin el nombre del puerto de conmutacin o acepte el nombre predeterminado. El nombre de puerto predeterminado es idntico al nombre de ID de nodo interno del host de Solaris que aloja el extremo del cable asociado al adaptador. Sin embargo, para ciertos tipos de adaptadores el nombre de puerto predeterminado no es vlido.
Nota Los clsteres con tres o ms nodos de votacin deben utilizar conmutadores de
transporte. Slo se admite la conexin directa entre los nodos de votacin para los clsteres con dos hosts. Si se realiza una conexin directa en un clster con dos hosts, an puede especificar un conmutador de transporte para la interconexin.
Consejo Si especificaun conmutador de transporte, podr agregar ms fcilmente otro nodo
Aislamiento global
El aislamiento es un mecanismo utilizado por el clster para proteger la integridad de los datos de un disco compartido durante las situaciones en las que una particin del clster cree que la otra particin est inactiva ("cerebro dividido"). En el modo tpico, scinstall deja habilitada de forma predeterminada el aislamiento global y cada disco compartido de la configuracin utiliza la opcin predeterminada de aislamiento global pathcount. Con la opcin pathcount, se selecciona el protocolo de aislamiento para cada disco compartido en funcin del nmero de rutas de DID asociadas al disco. En el modo personalizado, la utilidad scinstall le pregunta si desea habilitar el aislamiento global. En la mayora de los casos, debe responder N o para mantener habilitado el aislamiento global. Sin embargo, puede inhabilitar el aislamiento global en las siguientes situaciones:
Precaucin Si inhabilita el aislamiento en situaciones distintas a las descritas a continuacin,
es posible que los datos puedan daarse durante la migracin tras error de la aplicacin. Estudie atentamente la posibilidad de que se daen los datos si decide desactivar el aislamiento.
El almacenamiento compartido no admite las reservas SCSI. Si desactiva el aislamiento para un disco compartido que configura a continuacin como dispositivo del qurum, este dispositivo utilizar el protocolo de qurum del software. Esta accin se lleva a cabo independientemente de si el disco admite el protocolo SCSI-2 o SCSI-3.El qurum del software es un protocolo de Oracle Solaris Cluster que emula
Desea habilitar sistemas que se encuentran fuera del clster para obtener acceso al almacenamiento conectado al clster.
Si inhabilita el aislamiento global durante la configuracin del clster, esta funcin se desactivar para todos los discos compartidos del clster. Una vez configurado el clster, puede cambiar el protocolo de aislamiento global o anular el protocolo de aislamiento de discos compartidos individuales. Sin embargo, para cambiar el protocolo de aislamiento de un dispositivo del qurum, debe configurar primero este dispositivo. A continuacin, establezca el nuevo protocolo de aislamiento del disco y vuelva a configurarlo en un dispositivo del qurum. Para obtener ms informacin sobre el comportamiento de la funcin de aislamiento, consulte Failfast Mechanism de Oracle Solaris Cluster Concepts Guide. Para obtener ms informacin sobre cmo establecer el protocolo de aislamiento de discos compartidos individuales, consulte la pgina de comando man cldevice(1CL) . Para obtener ms informacin sobre la configuracin del aislamiento global, consulte la pgina de comando man cluster (1CL).
Dispositivos de qurum
Las configuraciones de Oracle Solaris Cluster usan dispositivos del qurum para mantener la integridad de los datos y de los recursos. Si el clster pierde temporalmente la conexin con un nodo de votacin, el dispositivo del qurum evita los problemas de "amnesia" o "cerebro divido" cuando el nodo intente unirse de nuevo al clster. Para obtener ms informacin sobre la finalidad y la funcin de los dispositivos del qurum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide. Durante la instalacin de Oracle Solaris Cluster de un clster con dos hosts, puede optar por permitir que la utilidad scinstall configure automticamente como dispositivo del qurum un disco compartido disponible en la configuracin. Entre los discos compartidos, se incluye cualquier dispositivo Sun NAS configurado para su uso como disco compartido. La utilidad scinstall presupone que todos los discos de almacenamiento compartido disponibles son aptos para convertirse en dispositivos del qurum. Si desea utilizar un servidor de qurum, un dispositivo Oracle Sun Storage 7000 Unified Storage System NAS o un dispositivo Network Appliance NAS como dispositivo del qurum, debe configurarlo una vez finalizado el procesamiento de scinstall . Despus de la instalacin, puede configurar tambin dispositivos del qurum adicionales mediante la utilidad clsetup (1CL).
Nota No es necesario que configure dispositivos del qurum para un clster con un nico host.
Si la configuracin del clster incluye dispositivos de almacenamiento compartido de terceros que no se pueden utilizar como dispositivos del qurum, debe usar la utilidad clsetup para configurar el qurum manualmente.
Tenga en cuenta los siguientes puntos al planificar los dispositivos del qurum.
Mnimo: un clster con dos nodos debe tener como mnimo un dispositivo del qurum, que puede ser un disco compartido, un servidor de qurum o un dispositivo NAS. Para las dems topologas, los dispositivos del qurum son opcionales. Regla del nmero impar: si se configuran varios dispositivos del qurum en un clster con dos hosts o en un par de hosts conectados directamente al dispositivo del qurum, configure un nmero impar de dispositivos del qurum. Esta configuracin garantiza que los dispositivos del qurum presenten rutas de error completamente independientes. Distribucin de los votos del qurum: para obtener la mayor disponibilidad del clster, asegrese de que el nmero total de votos proporcionados por los dispositivos del qurum sea inferior al nmero de votos proporcionados por los nodos. De lo contrario, los nodos no podrn formar un clster si ninguno de los dispositivos del qurum est disponible, incluso aunque todos los nodos estn en funcionamiento. Conexin: debe conectar un dispositivo del qurum a, como mnimo, dos nodos de votacin. Protocolo de aislamiento SCSI: al configurar un dispositivo del qurum de discos compartidos SCSI, su protocolo de aislamiento se establece automticamente en SCSI-2 en un clster con dos hosts o en SCSI-3 en un clster con tres o ms nodos de votacin. Cambio del protocolo de aislamiento de los dispositivos del qurum: para los discos SCSI configurados como dispositivos del qurum, debe anular la configuracin de estos dispositivos antes de habilitar o inhabilitar su protocolo de aislamiento SCSI. Protocolo del qurum del software: puede configurar como dispositivos del qurum discos compartidos compatibles que no admitan el protocolo SCSI como, por ejemplo, discos SATA. Debe habilitar el aislamiento para estos discos. A continuacin, los discos utilizarn el protocolo del qurum del software, que emula las reservas PGR SCSI. Los discos compartidos SCSI utilizarn tambin el protocolo del qurum del software si se ha inhabilitado el aislamiento para estos discos.
Dispositivos repetidos: el software Oracle Solaris Cluster no admite dispositivos repetidos como dispositivos del qurum. Grupos de almacenamiento ZFS: no agregue un dispositivo del qurum configurado a un grupo de almacenamiento ZFS. Si se agrega un dispositivo del qurum a un grupo de almacenamiento ZFS, el disco se reetiqueta como disco EFI y se pierde la informacin de configuracin del qurum. El disco ya no podr proporcionar un voto del qurum al clster. Una vez que haya un disco en el grupo de almacenamiento, puede configurarlo como dispositivo del qurum. Tambin puede anular la configuracin del dispositivo del qurum, agregar el disco al grupo de almacenamiento y, a continuacin, volver a configurarlo como dispositivo del qurum.
Para obtener ms informacin sobre los dispositivos del qurum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide y Quorum Devices de
clsteres de zona
Un clster de zona consiste en un clster de zonas de contenedores Solaris no globales. Todos los nodos de un clster de zona se configuran como zonas no globales de la marca cluster . No se permite ningn otro tipo de marca en un clster de zona. Puede ejecutar servicios compatibles en el clster de zona del mismo modo que en un clster global, con el aislamiento proporcionado por las zonas de Solaris. Tenga en cuenta los siguientes puntos al planificar la creacin de un clster de zona.
Requisitos y directrices del clster global en la pgina 43 Requisitos y directrices de los clsteres de zona en la pgina 44 Directrices para Trusted Extensions en un clster de zona en la pgina 45
Clster global : el clster de zona debe establecerse en una configuracin de Oracle Solaris Cluster global. Un clster de zona puede configurarse sin un clster global subyacente. Modo de clster: el nodo de votacin de clster global desde el que se crea o modifica un clster de zona debe encontrarse en el modo de clster. Si, al administrar un clster de zona, los dems nodos de votacin se encuentran en el modo sin clster, los cambios realizados se propagarn a esos nodos al volver al modo de clster. Direcciones IP privadas adecuadas : el intervalo de direcciones IP privadas del clster global debe disponer de suficientes subredes de direcciones IP libres para el nuevo clster de zona. Si el nmero de subredes disponibles es insuficiente, la creacin del clster de zona presentar errores. Cambios en el intervalo de direcciones IP privadas: las subredes IP privadas y sus correspondientes direcciones IP privadas disponibles para los clsteres de zona se actualizan automticamente si se modifica el intervalo de direcciones IP privadas del clster global. Si se elimina un clster de zona, la infraestructura de clster libera las direcciones IP privadas utilizadas por ste, lo que permite que las direcciones estn disponibles para su uso en el clster global y por parte de los dems clsteres de zona que dependan del clster global. Dispositivos admitidos: los dispositivos compatibles con las zonas de Solaris pueden exportarse a un clster de zona. Entre estos dispositivos, se incluyen los siguientes:
Dispositivos de disco de Solaris (cNtXdYsZ) Dispositivos DID (/dev/did/*dsk/d N) Conjuntos de discos de Solaris Volume Manager y Solaris Volume Manager for Sun Cluster para varios propietarios (/dev/md/ setname/*dsk/d N)
Distribucin de los nodos: no se pueden alojar varios nodos del mismo clster de zona en el mismo equipo del nodo. Un host puede admitir varios nodos de clster de zona siempre y cuando cada clster de zona de ese host sea miembro de un clster de zona diferente. Creacin de nodos: debe crear, al menos, un nodo durante la creacin del clster de zona. El nombre del nodo de clster de zona debe ser exclusivo en el clster de zona. La infraestructura crea automticamente una zona no global subyacente en cada host que admite el clster de zona. Cada zona no global recibe el mismo nombre, que se obtiene del nombre asignado al clster de zona durante la creacin del clster, por lo que es idntico a ste. Por ejemplo, si crea un clster de zona con el nombre zc1, el nombre de la zona no global correspondiente en cada host que admite el clster de zona tambin es zc1. Nombre del clster: cada nombre de clster de zona debe ser exclusivo en todo el clster de mquinas que alojan el clster global. Este nombre de clster de zona no puede utilizarse para ninguna zona global en ninguna parte del clster de equipos. Tampoco puede ser idntico al de un nodo del clster global. No se pueden utilizar "all" (todos) o "global" como nombres del clster de zona ya que estn reservados. Direcciones IP de red pblica: asigne una direccin IP de red pblica especfica a cada nodo del clster de zona. Nombres de host privados: durante la creacin del clster de zona, se crea automticamente un nombre de host privado para cada nodo de este clster del mismo modo que para los clsteres globales. Actualmente no se puede cambiar el nombre de host de un nodo de clster de zona. Para obtener ms informacin sobre los nombres de host privados, consulte la seccin Nombres de host privados en la pgina 37. Marca de zonas de Solaris: todos los nodos de un clster de zona se configuran como zonas no globales de la marca cluster . No se permite ningn otro tipo de marca en un clster de zona. Propiedad de tipo de recurso Global_zone=TRUE: para registrar un tipo de recurso que utiliza la propiedad de tipo de recurso Global_zone=TRUE, el archivo de tipo de recurso debe ubicarse en el directorio /usr/cluster/global/rgm/rtreg/ del clster de zona. Si ese archivo de tipo de recurso se encuentra en otra ubicacin, se rechaza el comando para registrar el tipo de recurso. Conversin a un nodo de clster de zona: no se puede agregar a un clster de zona una zona no global que se encuentre fuera de ese clster de zona. Debe usarse solamente el comando clzonecluster para agregar nodos nuevos a un clster de zona. Sistemas de archivos: puede utilizar el comando clzonecluster para agregar los siguientes tipos de sistemas de archivos para su uso por parte de un clster de zona. Un sistema de archivos se exporta a un clster de zona mediante un montaje directo o un montaje en bucle invertido.
Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS, slo cuando se utiliza para admitir el uso de Oracle Real Application Clusters ZFS (exportado como conjunto de datos) N FS desde dispositivos NAS admitidos Sistema local de archivos UFS Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS, slo cuando se utiliza para admitir sistema de archivos U FS del clster de Oracle Real Application Clusters Sistema local de archivos del clster VxFS
Puede configurar un recurso de HAStoragePlus o ScalMountPoint para administrar el montaje del sistema de archivos. Para agregar a un clster de zona un sistema de archivos local no administrado por un recurso del clster, lo que se hace en este caso es ejecutar el comando zonecfg del mismo modo que en un sistema independiente. Si lo desea, tambin puede configurar un dispositivo de almacenamiento en un clster de zona y, a continuacin, montar manualmente el sistema de archivos local en ese dispositivo de almacenamiento.
Aislamiento: los clsteres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.
Admisin slo de clster de zona: en una configuracin de Oracle Solaris Cluster con la funcin Trusted Extensions habilitada, las aplicaciones deben ejecutarse nicamente en un clster de zona. En el clster no pueden utilizarse otras zonas no globales. Para crear un clster de zona debe utilizarse solamente el comando clzonecluster . No utilice el comando txzonemgr para crear una zona no global en un clster que tenga habilitada la funcin Trusted Extensions. mbito de Trusted Extensions: la funcin Trusted Extensions puede habilitarse o inhabilitarse para toda la configuracin del clster. Si Trusted Extensions est habilitada, todas las zonas no globales en la configuracin del clster deben pertenecer a un clster de zona. No se puede configurar cualquier otro tipo de zona no global sin poner en riesgo la seguridad.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Direcciones IP: cada clster de zona que emplee Trusted Extensions debe utilizar sus propias direcciones IP. La funcin de red especial de Trusted Extensions que permite compartir una direccin IP entre varias zonas no globales no es compatible con el software Oracle Solaris Cluster. Montajes en bucle invertido: no se pueden utilizar montajes en bucle invertido que dispongan de permiso de escritura en un clster de zona que emplea la funcin Trusted Extensions. Utilice nicamente montajes directos de sistemas de archivos que permitan el acceso de escritura, o bien montajes en bucle invertido que cuenten con permisos de slo lectura. Sistemas de archivos: no configure en el clster de zona el dispositivo global que subyazga en un sistema de archivos. Configure nicamente el sistema de archivos en el clster de zona. Nombre del dispositivo de almacenamiento: no agregue un segmento individual de un dispositivo de almacenamiento a un clster de zona. Debe agregarse todo el dispositivo a un solo clster de zona. El uso de segmentos del mismo dispositivo de almacenamiento en diferentes clsteres de zona pone en riesgo la seguridad de esos clsteres. Instalacin de aplicaciones: instale aplicaciones slo en el clster de zona o en el clster global; a continuacin, exporte al clster de zona mediante montajes en bucle invertido de slo lectura. Aislamiento de clsteres de zona: al utilizarse Trusted Extensions, el nombre de un clster de zona es una etiqueta de seguridad. En algunos casos, la propia etiqueta de seguridad puede ser informacin confidencial que no debe mostrarse, como tambin lo pueden ser el nombre de un recurso o de un grupo de recursos. Al configurar una dependencia o una afinidad de recursos entre clsteres, el nombre del otro clster y el de cualquier recurso o grupo de recursos afectado llegan a hacerse visibles. Por lo tanto, antes de establecer una relacin entre clsteres, considere si esta informacin puede mostrarse teniendo en cuenta sus requisitos.
Planificacin de los dispositivos globales, los grupos de dispositivos y los sistemas de archivos del clster
En esta seccin se proporcionan las siguientes directrices para planificar los dispositivos globales y los sistemas de archivos del clster:
Dispositivos globales en la pgina 47 Grupos de dispositivos en la pgina 47 Sistemas de archivos del clster en la pgina 48 Seleccinde las opciones de montaje para los sistemas de archivos del clster en la pgina 50 Informacin de montaje para los sistemas de archivos del clster en la pgina 52
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Dispositivos globales
Para obtener informacin sobre la finalidad y la funcin de los dispositivos globales, consulte Shared Devices, Local Devices, and Device Groups de Oracle Solaris Cluster Overview y Global Devices de Oracle Solaris Cluster Concepts Guide. El software Oracle Solaris Cluster no necesita ningn diseo de disco o tamao de sistema de archivos especficos. Tenga en cuenta los siguientes puntos al planificar el diseo de los dispositivos globales.
Creacin de reflejos: debe crear reflejos de todos los dispositivos globales para que el dispositivo pueda considerarse de alta disponibilidad. No es necesario que utilice el reflejo del software si el dispositivo de almacenamiento proporciona RAID de hardware, as como rutas redundantes a los discos. Discos: al crear reflejos, distribuya los sistemas de archivos de tal forma que se reflejen en las matrices de disco. Disponibilidad: debe conectar fsicamente un dispositivo global a ms de un nodo de votacin de clster para que se considere de alta disponibilidad. Un dispositivo global con varias conexiones fsicas puede tolerar el error de un nico nodo. Se admite el uso de un dispositivo global con una nica conexin fsica, aunque es posible que no se pueda acceder a ste desde otros de votacin si el nodo de la conexin se encuentra inactivo. Dispositivos de intercambio: no cree un archivo de intercambio en un dispositivo global. Zonas no globales: no se puede acceder directamente a los dispositivos globales desde una zona no global. Slo se puede acceder a los datos del sistema de archivos del clster desde una zona no global.
Grupos de dispositivos
Para obtener informacin sobre la finalidad y la funcin de los grupos de dispositivos, consulte Shared Devices, Local Devices, and Device Groups de Oracle Solaris Cluster Overview y Device Groups de Oracle Solaris Cluster Concepts Guide. Agregue esta informacin de planificacin a la Hoja de trabajo para la configuracin de grupos de dispositivos en la pgina 277. Tenga en cuenta los siguientes puntos al planificar los grupos de dispositivos.
Migracin tras error: puede establecer discos multihost y dispositivos del administrador de volmenes configurados correctamente como dispositivos de migracin tras error. La correcta configuracin de un dispositivo del administrador de volmenes incluye discos multihost y la correcta configuracin del propio administrador de volmenes. Esta configuracin garantiza que varios nodos de votacin puedan alojar el dispositivo exportado. No se pueden configurar unidades de cinta, CD-ROM o DVD-ROM, o dispositivos de un solo puerto como dispositivos de migracin tras error.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Creacin de reflejos: debe crear reflejos de los discos para proteger los datos ante un posible error. Consulte la seccin Directrices de creacin de reflejos en la pgina 58 para obtener directrices adicionales. Consulte la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 y la documentacin del administrador de volmenes para obtener instrucciones sobre la creacin de reflejos. Repeticin basada en almacenamiento: deben repetirse todos los discos de un grupo de dispositivos o no debe repetirse ninguno. No se puede utilizar una combinacin de discos repetidos y no repetidos en un grupo de dispositivos.
disponibilidad. De esta forma, puede obtener un mayor rendimiento, lo que le permitir usar servicios de datos con un alto nivel de E/S o determinadas funciones del sistema de archivos que no se admiten en un sistema de archivos del clster. Para obtener ms informacin, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Tenga en cuenta los siguientes puntos al planificar los sistemas de archivos del clster.
Cuotas : no se admiten las cuotas en los sistemas de archivos del clster. Sin embargo, s se admiten en los sistemas de archivos de alta disponibilidad. Zonas no globales: si se va acceder a un sistema de archivos del clster desde una zona no global, ste debe montarse primero en la zona global. A continuacin, se monta el sistema de archivos del clster en la zona no global mediante un mtodo de bucle invertido. Por lo tanto, debe habilitarse el sistema de archivos de bucle invertido (LOFS) en un clster con zonas no globales. Clsteres de zona: no se puede utilizar sistemas de archivos del clster que usen UFS o VxFS en un clster de zona. En su lugar, utilice sistemas de archivos locales de alta disponibilidad. Puede utilizar un sistema de archivos QFS compartido en un clster de zona, pero slo para permitir el uso de Oracle RAC. Sistema de archivos de bucle invertido (Loopback File System, LOFS): al crear un clster, LOFS est habilitado por defecto. Debe inhabilitar manualmente LOFS en cada nodo de votacin de clster si ste cumple las dos condiciones siguientes:
Oracle Solaris Cluster HA para NFS (HA para NFS) se ha configurado en un sistema de archivos local de alta disponibilidad.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Si el clster cumple estas dos condiciones, debe inhabilitar LOFS para evitar problemas de conmutacin u otro tipo de errores. Si el clster cumple slo con una de estas condiciones, podr habilitar de forma segura LOFS. Si es necesario habilitar LOFS y el daemon automountd, excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS.
Archivos de registro de contabilidad de procesos: no incluya archivos de registro de contabilidad de procesos en un sistema de archivos del clster o en un sistema de archivos local de alta disponibilidad. Es posible que las acciones de escritura bloqueen una conmutacin, lo que provocara el bloqueo del nodo. Incluya los archivos de registro de contabilidad de procesos slo en un sistema de archivos local. Puntos finales de comunicacin: el sistema de archivos del clster no admite ninguna de las funciones de sistema de archivos del software de Solaris en la que incluya un punto final de comunicacin en el espacio de nombres del sistema de archivos.
Aunque se puede crear un socket de dominio de UNIX cuyo nombre sea el nombre de la ruta al sistema de archivos del clster, el socket no sobrevivira a un proceso de migracin tras error de un nodo. No se podr acceder globalmente a ningn FIFO o conducto con nombre que se cree en un sistema de archivos del clster.
Por lo tanto, no intente utilizar el comando fattach desde ningn nodo distinto al nodo local.
Archivos especiales el dispositivo: no se admiten los archivos especiales de bloques ni caracteres en un sistema de archivos del clster. Para especificar un nombre de ruta a un nodo del dispositivo en un sistema de archivos del clster, cree un vnculo simblico al nombre del dispositivo en el directorio /dev. No utilice el comando m knodpara realizar esta tarea. atime: los sistemas de archivos del clster no mantienen el elemento atime . ctime: si se accede a un archivo de un sistema de archivos del clster, es posible que se retrase la actualizacin del elemento ctime del archivo. Instalacin de aplicaciones: si desea que los archivos binarios de una aplicacin de alta disponibilidad residan en un sistema de archivos del clster, instale la aplicacin una vez configurado el sistema de archivos del clster. Adems, si la aplicacin se instala mediante el programa installer de y depende de los componentes compartidos, instale estos componentes en todos los nodos del clster en los que no se haya instalado la aplicacin.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Seleccin de las opciones de montaje para los sistemas de archivos del clster
En esta seccin se describen los requisitos y las restricciones para los siguientes tipos de sistemas de archivos del clster:
Sistemas de archivos UFS del clster en la pgina 50 Sistemas de archivos VxFS del clster en la pgina 51
Nota Tambin puede configurar estos y otros tipos de sistemas de archivos como sistemas
de archivos locales de alta disponibilidad. Para obtener ms informacin, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide. Siga estas directrices para determinar las opciones de montaje que se utilizarn al crear los sistemas de archivos del clster.
Esta opcin permite que el sistema de archivos est visible globalmente en todos los nodos del clster. Esta opcin habilita el registro. Esta opcin slo es necesaria para los sistemas de archivos del clster que alojen archivos de registro, archivos de control y archivos de datos RDBMS de Oracle Real Application Clusters
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Opcin de montaje Sintaxis Descripcin
onerror=panic
Necesaria
No es necesario especificar de forma explcita la opcin onerror=panic en el archivo /etc/vfstab . Esta opcin de montaje es el valor predeterminado si no se ha especificado ninguna otra opcin de montaje onerror .
Nota El software Oracle Solaris Cluster slo admite la opcin de montaje
onerror=panic . No utilice las opciones de montaje onerror=umount u onerror=lock . Estas opciones de montaje no se admiten en los sistemas de archivos del clster por los siguientes motivos: El uso de la opcin de montaje onerror=umount u onerror=lock puede provocar que el sistema de archivos del clster se bloquee o se vuelva inaccesible. Puede presentarse esta situacin si se han producido daos en los archivos del sistema de archivos del clster.
La opcin de montaje onerror=umount o onerror=lock puede provocar que no se pueda desmontar el sistema de archivos. A consecuencia de esta situacin, es posible que las aplicaciones que utilicen el sistema de archivos del clster se bloqueen o no puedan cerrarse.
Es posible que deba reiniciarse el nodo para que se recupere de estos estados. syncdir Opcional Si se especifica la opcin syncdir , se garantiza el comportamiento del sistema de archivos compatible con POSIX para la llamada del sistema write() . Si la operacin write() se realiza satisfactoriamente, esta opcin de montaje garantiza que hay suficiente espacio en el disco. Si no se especificasyncdir , se produce el mismo comportamiento que se ha detectado en los sistemas de archivos UFS. Al no especificarla opcin syncdir , es posible que el rendimiento de las operaciones de escritura que asignan bloques de discos como, por ejemplo, la adicin de datos a un archivo, mejore significativamente.Sin embargo, en algunos casos, sin la opcin syncdir , es posible que no se detecte una condicin de espacio insuficiente (E N O S P)C hasta que se cierre el archivo. Puede ver cmo E N O S P se C cierra slo durante un periodo de tiempo muy breve despus de producirse una migracin tras error. Al igual que ocurre con el comportamiento de POSIX, con syncdir , la condicin de espacio insuficiente se detecta antes de cerrar el archivo.
Consulte la pgina de comando man mount_ufs(1M) para obtener ms informacin sobre las opciones de montaje UFS.
global
Necesaria
Esta opcin permite que el sistema de archivos est visible globalmente en todos los nodos del clster.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Opcin de montaje Sintaxis Descripcin
log
Necesaria
Consulte la pgina de comando man de VxFS mount_vxfs y Informacin general sobre la administracin de sistemas de archivos de clsters de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin sobre las opciones de montaje de VxFS.
Ubicacin de los puntos de montaje: cree puntos de montaje para los sistemas de archivos del clster en el directorio /global a menos que lo prohban los dems productos de software. Mediante el uso del directorio /global , puede distinguir ms fcilmente los sistemas archivos del clster, que se encuentran disponibles globalmente, de los sistemas de archivos locales. SPARC: Requisito de montaje de VxFS: si se utiliza Sistema de archivos de Veritas (VxFS), monte y desmonte globalmente un sistema de archivos VxFS desde el nodo primario. El nodo primario es el host de Solaris que controla el disco en el que reside el sistema de archivos VxFS. Este mtodo garantiza una correcta operacin de montaje o desmontaje. Si se realiza una operacin de montaje o desmontaje del sistema de archivos VxFS desde un nodo secundario, es posible que sta presente errores. SPA R C : Restricciones de las funciones de VxFS: Las siguientes funciones de VxFS no son compatibles con un sistema de archivos de clster de Oracle Solaris Cluster. Sin embargo, s son compatibles en un sistema de archivos local.
E/S rpida Instantneas Puntos de control de almacenamiento Opciones de montaje especficas de VxFS:
Sistema de archivos de clster de Veritas (requiere VxVM, funcin de clster y Veritas Cluster Server). La funcin de clster de VxVM no es compatible con los sistemas basados en x86.
nodo concreto.
Planificacinde los dispositi vos globales, los grupos de dispositivos y los sistemas de archivos del clster
Todas las dems funciones y opciones de VxFS compatibles con un sistema de archivos de clster, tambin son compatibles con el software Oracle Solaris Cluster Consulte la documentacin de VxFS para obtener ms informacin sobre las opciones de VxFS que se admiten en una configuracin de clster.
Anidacin de puntos de montaje: por lo general, no debera anidar los puntos de montaje de los sistemas de archivos del clster. Por ejemplo, no configure un sistema de archivos montado en /global/a y otro montado en /global/a/b . Si se omite esta regla, puede que se produzcan problemas de disponibilidad y de orden de inicio del nodo. Estos problemas pueden producirse si el punto de montaje principal no est presente cuando el sistema intente montar un elemento secundario de ese sistema de archivos. La nica excepcin a esta regla, para los sistemas de archivos del clster en UFS o VxFS, es que los dispositivos de los dos sistemas de archivos presenten la misma conectividad fsica con el host, como, por ejemplo, en los diferentes segmentos del mismo disco.
Nota Esta restriccin se aplica tambin a los sistemas de archivos QFS compartidos,
aunque los dos dispositivos del sistema de archivos tengan la misma conectividad fsica con el host.
forcedirectio : el software Oracle Solaris Cluster no admite la ejecucin de archivos binarios fuera de los sistemas de archivos del clster montados mediante la opcin forcedirectio .
Directrices para el software del administrador de volmenes en la pgina 54 Directrices para el software Solaris Volume Manager en la pgina 55 Directrices para el software Veritas Volume Manager en la pgina 56 Registro de los sistemas de archivos en la pgina 57 Directrices de creacin de reflejos en la pgina 58
Oracle Solaris Cluster utiliza el software del administrador de volmenes para asociar discos a grupos de dispositivos que pueden administrarse posteriormente como una sola unidad. Oracle Solaris Cluster admite el software Solaris Volume Manager y el software Veritas
Volume Manager (VxVM) que instale o utilice de las siguientes formas. volmenes
Planificacinde la administracinde
Debe instalar el software Solaris Volume Manager en los nodos de votacin de clster, independientemente de si utiliza VxVM en algunos nodos para administrar los discos. Debe instalar y registrar VxVM con la funcin de clster en todos los nodos de votacin de clster. Slo tiene que instalar y registrar VxVM en los nodos de votacin que estn conectados a los dispositivos de almacenamiento que administre VxVM. Si instala los dos administradores de volmenes en el mismo nodo de votacin, debe utilizar el software Solaris Volume Manager para administrar los discos que sean locales en cada nodo. Entre los discos locales, se incluye el disco raz. Utilice VxVM para administrar los discos compartidos.
Consulte la documentacin del administrador de volmenes y la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 para obtener instrucciones sobre cmo instalar y configurar el software del administrador de volmenes. Para obtener ms informacin sobre cmo utilizar la administracin de volmenes en una configuracin de clster, consulte Multihost Devices de Oracle Solaris Cluster Concepts Guide y Device Groups de Oracle Solaris Cluster Concepts Guide.
RAID de software: el software Oracle Solaris Cluster no admite el sistema RAID 5 de software. Discos multihost reflejados: debe crear reflejos de todos los discos multihost en las unidades de expansin de discos. Consulte la seccin Directrices para la creacin de reflejos de discos multihost en la pgina 58 para obtener directrices sobre cmo crear reflejos de discos multihost. No es necesario que utilice el reflejo del software si el dispositivo de almacenamiento proporciona RAID de hardware, as como rutas redundantes a los dispositivos. Raz reflejada : el reflejo del disco raz garantiza una alta disponibilidad, aunque no es necesaria. Consulte la seccin Directrices de creacin de reflejos en la pgina 58
para obtener directrices sobre si deben crear reflejos del disco raz. volmenes
Planificacinde la administracinde
Asignacin de nombre exclusivo: es posible que tenga volmenes locales de Solaris Volume Manager o VxVM que se utilicen como dispositivos en los que se montan los sistemas de archivos /global/.devices/node@ id_nodo . En tal caso, el nombre de cada volumen local en el que se vaya a montar un sistema de archivos /global/.devices/node@ id_nodo debe ser exclusivo en todo el clster. Listas de nodos: para garantizar la alta disponibilidad de un grupo de dispositivos, consiga que las listas de nodos de posibles maestros y su directiva de migracin tras error sean idnticas a cualquier grupo de recursos asociado. O bien, si un grupo de recursos escalable utiliza ms nodos que su grupo de dispositivos asociado, convierta la lista de nodos del grupo de recursos escalables en un superconjunto de la lista de nodos del grupo de dispositivos. Consulte la informacin de planificacin de grupos de recursos de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide para obtener informacin sobre las listas de nodos. Discos multihost : debe conectar (o asociar mediante los puertos) todos los dispositivos que se utilicen para crear un grupo de dispositivos a todos los nodos configurados de la lista de nodos para ese grupo de dispositivos. El software Solaris Volume Manager puede buscar esta conexin en el momento en que los dispositivos se agreguen al conjunto de discos. Sin embargo, los grupos de discos configurados de VxVM no presentan ninguna asociacin a ningn conjunto especfico de nodos. Discos reemplazables sobre la marcha: puede utilizar este tipo de discos para aumentar la disponibilidad, aunque su uso no es necesario.
Consulte la documentacin del administrador de volmenes para obtener recomendaciones acerca del diseo de disco y restricciones adicionales.
Nombres de volmenes locales: el nombre de cada volumen local de Solaris Volume Manager en el que se monta un sistema de archivos de dispositivos globales, /global/.devices/node@ id_nodo, debe ser exclusivo en todo el clster. Adems, este nombre no puede ser igual a ningn nombre de ID de dispositivo. Mediadores de dos cadenas: una cadena de disco est formada por un contenedor de discos, sus discos fsicos, cables del contenedor al host o hosts y las tarjetas del adaptador de interfaz. Cada conjunto de discos configurado con exactamente dos cadenas de discos y controlado exactamente por dos hosts de Solaris se denomina conjunto de discos de dos cadenas. Un conjunto de discos de este tipo debe tener configurados mediadores de dos cadenas de Solaris Volume Manager. Tenga en cuenta las siguientes reglas al configurar mediadores de dos cadenas:
Debe configurar cada conjunto de discos con dos o volmenes tres hosts que acten como mediadores.
Planificacinde la administracinde
Debe utilizar los hosts que puedan controlar un conjunto de discos como mediadores de ese conjunto de discos. Si dispone de un clster de campus, tambin puede configurar un tercer nodo o un host que no est en clster en la red de clsteres como tercer host mediador para mejorar la disponibilidad. No se pueden configurar mediadores para los conjuntos de discos que no cumplan los requisitos de dos cadenas y dos hosts.
Accesibilidad a los nodos: debe configurar todos los grupos de discos del administrador de volmenes como grupos de dispositivos de Oracle Solaris Cluster o grupos de discos slo locales. Si no configura el grupo de discos de ninguna de estas formas, no se podr acceder a los dispositivos del grupo de discos en ningn nodo del clster.
Si el nodo primario presenta errores, el grupo de dispositivos habilita un nodo secundario para que aloje los discos multihost. El grupo de discos slo locales funciona fuera del control del software Oracle Solaris Cluster y slo se puede acceder a l desde un nico nodo cada vez.
Asignacin de nombre basada en contenedor: si utiliza la funcin de asignacin de nombre basada en contenedor de los dispositivos, asegrese de utilizar nombres de dispositivos coherentes en todos los nodos del clster que compartan el mismo almacenamiento. VxVM no coordina estos nombres, por lo que el administrador debe garantizar que VxVM asigne los mismos nombres a los mismos dispositivos de diferentes nodos. Aunque no se asignen nombres coherentes, el clster seguir presentando un comportamiento correcto. No obstante, los nombres incoherentes complican en gran medida la administracin del clster y aumentan enormemente la posibilidad de que se produzcan errores de configuracin, que podran provocar la prdida de datos. Grupo de discos raz: la creacin de un grupo de discos raz es opcional. Se puede crear un grupo de discos raz en los siguientes discos:
El disco raz, que debe encapsularse. Uno o varios discos que no sean raz, que puede encapsular o inicializar. Una combinacin de discos raz y discos que no lo sean.
Grupos de discos raz sencillos: los grupos de discos raz sencillos, que se crean en un nico segmento del disco raz, no se admiten como tipos de disco con VxVM en el software Oracle Solaris Cluster. Se trata de una restriccin general del software VxVM.
Encapsulacin : los discos que se van a encapsular deben tener dos entradas de la tabla de segmentos del disco libres. Nmero de volmenes: calcule el nmero mximo de volmenes que puede utilizar un determinado grupo de dispositivos durante su creacin.
Si el nmero de volmenes es inferior a 1000, puede utilizar la asignacin de nmeros menores predeterminada. Si el nmero de volmenes es 1000 o superior, debe planificar con cuidado la forma en la que los nmeros menores se asignan a los volmenes del grupo de dispositivos. No puede haber dos grupos de dispositivos con asignaciones de nmeros menores que se solapen.
Registro de reas modificadas : el uso del Registro de reas modificadas (DRL) reduce el tiempo de recuperacin de los volmenes tras un error del nodo. El uso de DRL puede reducir el rendimiento de E/S. Multirruta dinmica (DMP): no se admite el uso exclusivo de DMP para administrar varias rutas de E/S por host de Solaris al almacenamiento compartido. Slo se admite el uso de DMP en las siguientes configuraciones:
S e ha configurado una nica ruta de E/S por host en el almacenamiento compartido del clster. S e utiliza una solucin de multirruta dinmica, por ejemplo el software Multirruta de E/S de Solaris o EMC PowerPath, que administre varias rutas de E/S por host al almacenamiento compartido.
ZFS: la encapsulacin del disco raz es incompatible con el sistema de archivos raz
Solaris UFS logging: consulte la pgina de comando man mount_ufs(1M) para obtener ms informacin. SPARC: Registro de Sistema de archivos de Veritas (VxFS): consulte la pgina de comando man mount_vxfs incluida en el software VxFS para obtener ms informacin.
Tanto Solaris Volume Manager como Veritas Volume Manager admiten los dos tipos de registro de sistemas de archivos.
Directrices para la creacin de reflejos de discos multihost en la pgina 58 Directrices para la creacin de reflejos del disco raz en la pgina 58
Unidades de expansin de discos independientes: cada subreflejo de un determinado reflejo o transmisin bidireccional debe residir en una unidad de expansin multihost diferente. Espacio en el disco: el reflejo dobla la cantidad necesaria de espacio en el disco. Reflejos en tres direcciones: el software Solaris Volume Manager y Veritas Volume Manager (VxVM) admiten la creacin de reflejos en tres direcciones. Sin embargo, Oracle Solaris Cluster slo requiere reflejos bidireccionales. Diferencia en el tamao de los dispositivos: si crea reflejos de un dispositivo con un tamao diferente, la capacidad de creacin de reflejos se limita al tamao del subreflejo o transmisin bidireccional menor.
Para obtener ms informacin sobre los discos multihost, consulte Multihost Disk Storage de Oracle Solaris Cluster Overview y Oracle Solaris Cluster ConceptsGuide.
de su representante de servicio local de Oracle al decidir si deseavolmenes crear reflejos del disco.
Planificacinde la administracinde
Consulte la documentacin del administrador de volmenes y la seccin Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199 para obtener instrucciones sobre cmo crear reflejos del disco raz. Tenga en cuenta los siguientes puntos al decidir si desea crear reflejos del disco raz.
Disco de inicio : puede configurar el reflejo para que sea un disco raz de inicio. A continuacin, puede efectuar el inicio desde el disco raz cuando el disco raz principal presente errores. Complejidad : la creacin de reflejos del disco raz aade complejidad a la administracin del sistema. Tambin complica el inicio en el modo monousuario. Copias de seguridad: independientemente de si se crean reflejos del disco raz, tambin debe efectuar copias de seguridad de la raz con frecuencia. La creacin de reflejos no basta para protegerle de los errores de administracin. Slo un plan de copia de seguridad permite restaurar los archivos que se hayan modificado o eliminado accidentalmente. Dispositivos del qurum: no utilice un disco que se haya configurado como dispositivo del qurum para crear reflejos de un disco raz. Qurum: en el software Solaris Volume Manager, en situaciones de error donde se pierde el qurum de la base de datos de estado, no se puede reiniciar el sistema hasta que se realice el mantenimiento. Consulte la documentacin de Solaris Volume Manager para obtener informacin sobre la base de datos de estado y sus rplicas. Controladores independientes: para obtener alta disponibilidad,esnecesariocrearreflejos del disco raz en un controlador independiente. Disco raz secundario: con un disco raz reflejado, es posible que el disco raz principal presente errores, aunque puede seguir funcionando en el disco raz secundario (reflejo). Es posible que el disco raz principal vuelva a funcionar posteriormente, por ejemplo, despus de apagar y encender el sistema o una vez solucionados los errores de E/S temporales. Los siguientes inicios se realizarn mediante el disco raz principal especificado en el parmetro eeprom(1M) boot-device . En este caso, no es necesario realizar ninguna tarea de reparacin manual, ya que la unidad contar con los recursos suficientes para iniciarse correctamente. Con el software Solaris Volume Manager, no se produce ninguna resincronizacin. sta necesita de un paso adicional cuando la unidad vuelva a estar en funcionamiento. Si se han realizado cambios en los archivos del disco raz secundario (reflejo), estos no aparecern reflejados en el disco raz principal durante el inicio. Esta situacin puede dar lugar a un subreflejo obsoleto. Por ejemplo, los cambios realizados en el archivo /etc/system se perderan. Con el software Solaris Volume Manager, es posible que algunos comandos de administracin hayan modificado el archivo/etc/system cuando el disco raz principal se encontraba fuera de servicio. El programa de inicio no comprueba si el sistema se est iniciando desde un reflejo o desde el dispositivo fsico subyacente. El reflejo se encuentra activo parcialmente durante el proceso de inicio una vez cargados los volmenes. Por lo tanto, antes de este punto, el sistema es vulnerable a los problemas asociados a los subreflejos obsoletos.
60
A P T U L O
En este captulo se proporcionan los procedimientos para instalar el software en los nodos de votacin de clster global y, de forma opcional, en la consola de administracin. En este captulo se describen los siguientes procedimientos:
Planifique el diseo de configuracin del clster y prepare la instalacin del software. (Opcional) Instale y configure un servidor de qurum. (Opcional) Instale el software Cluster Control Panel (CCP) en la consola de administracin. Instale el SO Solaris en todos los nodos. Si lo desea, habilite la ruta mltiple de E/S de Solaris.
Cmo preparar la instalacin del software del clster en la pgina 62 Instalacin y configuracin del software Servidor de qurum en la pgina 64 Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67 Cmo instalar el software de Solaris en la pgina 70
61
62
TA B L A 21 Tarea
(Continuacin)
Instrucciones
(Opcional) Instale el software Sun Logical Domains (LDoms) y cree dominios. (Opcional) SPARC: Instale el software Sistema de archivos de Veritas. Instale el software Oracle Solaris Cluster y todos los servidos de datos que se utilizarn. (Opcional) Instale el software Sun QFS. Configure las rutas de directorio. (Opcional) Configure el filtro IP de Solaris.
SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76 Cmo instalar el software Sistema de archivos de Veritas en la pgina 77 Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78 Cmo instalar el software Sun QFS en la pgina 82 Cmo configurar el entorno de usuario root en la pgina 82 Cmo configurar el filtro IP de Solaris en la pgina 83
Notas de la versin de Sun Cluster: restricciones, soluciones de errores e informacin de ltima hora. Oracle SolarisCluster Overview y Oracle SolarisCluster ConceptsGuide : informacin general sobre Oracle Solaris Cluster. Gua de instalacin del software Oracle Solaris Cluster (este manual): procedimientos y directrices de planificacin para la instalacin y configuracin de Solaris, Oracle Solaris Cluster y el software de administracin de volmenes. Oracle Solaris Cluster Data ServicesPlanning and Administration Guide : procedimientos y directrices de planificacin para la instalacin y configuracin de los servicios de datos.
Asegrese de disponer de toda la documentacin relacionada, incluidos los documentos de terceros. A continuacin se muestra una lista parcial de los productos cuya documentacin es posible que necesite consultar durante la instalacin del clster:
SO Solaris
63
Software Solaris Volume Manager Software Sun QFS Veritas Volume Manager Aplicaciones de terceros
todos los servicios de datos y los productos de terceros antes de iniciar la instalacin del software de Solaris y Oracle Solaris Cluster. De lo contrario, es posible que se produzcan errores de instalacin que le obliguen a reinstalar por completo el software de Solaris y Oracle Solaris Cluster. Por ejemplo, la opcin Proteccin de clsteres de aplicacin real de Oracle de Oracle Real Application Clusters presenta requisitos especiales relacionados con los nombres de host utilizados en el clster. Otro ejemplo con requisitos especiales es Oracle Solaris Cluster HA para SAP. Debe tener en cuenta estos requisitos antes de instalar el software Oracle Solaris Cluster, ya que no se pueden cambiar los nombres de host una vez realizada la instalacin.
Utilice las directrices de planificacin del Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster, y de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide para determinar cmo instalar y configurar el clster. Rellene las hojas de trabajo de configuracin de la estructura del software y los servicios de datos a los que se alude en estas directrices de planificacin. Durante las tareas de instalacin y configuracin, utilice como referencia las hojas de trabajo que ha rellenado.
Obtenga todos los parches necesarios para la configuracin del clster. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.
Pasos siguientes
Si desea utilizar el software Cluster Control Panel para establecer una conexin de la consola de administracin a los nodos del clster, vaya a Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67. De lo contrario, seleccione el procedimiento de instalacin de Solaris que desee utilizar.
Para configurar el software Oracle Solaris Cluster mediante la utilidad scinstall (1M), vaya a Cmo instalar el software de Solaris en la pgina 70 para instalar primero el software de Solaris. Para instalar y configurar el software de Solaris y Oracle Solaris Cluster en la misma operacin (mtodo JumpStart), vaya a Cmo instalar el software de Solaris y Oracle
63
64
Antes de empezar
Asegrese de que el equipo seleccionado para el servidor de qurum tenga, como mnimo, 1 MB de espacio disponible en el disco para la instalacin del software Oracle Java Web Console. Asegrese de que el equipo del servidor de qurum est conectado a una red pblica accesible a los nodos del clster. Inhabilite el algoritmo de rbol de expansin en los conmutadores Ethernet para los puertos conectados a la red pblica del clster en los que se ejecutar el servidor de qurum.
1 2
Convirtase en superusuario en el equipo para instalar el software del Servidor de qurum. (Opcional) Para usar el programa installer con una G U I,asegrese de que el
entorno de visualizacin del servidor de host que se va a instalar se haya configurado para mostrar la GUI.
# xhost + # setenv D IS P L A Y nodenam :0.0 e
Si el daemon de administracin de volmenes (vold(1M)) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. Acceda al directorio del asistente de instalacin del medio.
Siga las instrucciones que aparecen en la pantalla para instalar el software del Servidor
Configurar ahora. Una vez finalizada la instalacin, puede consultar el registro de instalacin disponible. Consulte Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para obtener informacin adicional sobre cmo utilizar el programa installer .
7 8
Aplique los parches de Servidor de qurum que sean necesarios. Extraiga el medio de instalacin de la unidad. a. Para asegurarse de que no se est utilizando el medio de instalacin, acceda a un directorio que no est incluido en dicho medio. b. Expulse el medio.
phys-schost# eject cdrom
Aplique los parches necesarios para admitir el uso del software del Servidor de qurum. Consulte Parches y niveles de firmware necesarios de las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. (Opcional) Agreguelaubicacindela rchivobinariodel Servidor de qurum a la variable de entorno P A T .H
quorumserver# PATH=$PATH:/usr/cluster/bin
10
11
(Opcional) Agregue la ubicacin de la pgina de comando man del Servidor de qurum a la variable de entorno M A N P A. T H
quorumserver# MANPATH=$MANPATH:/usr/cluster/man
12
Configure el servidor de qurum. Agregue la siguiente entrada al archivo /etc/scqsd/scqsd.conf para especificar la informacin de configuracin acerca del servidor de qurum. Identifique el servidor de qurum mediante, al menos, un nombre de instancia o un nmero de puerto. Debe especificar el nmero de puerto, aunque el nombre de la instancia es opcional.
Si proporciona un nombre de instancia, ste debe ser exclusivo para los servidores del qurum. S i, por el contrario, no proporciona ningn nombre de instancia, haga referencia siempre a este servidor de qurum mediante el puerto de escucha.
[-d quorumdirectory] [-i instancename] -p port
/usr/cluster/lib/sc/scqsd
-d directorio_qurum La ruta al directorio en el que el servidor de qurum puede almacenar los datos del qurum.
El proceso del servidor de qurum crea un archivo por clster en este directorio para almacenar la informacin del qurum especfica del clster. El valor de esta opcin es, de forma predeterminada, /var/scqsd . Este directorio debe ser exclusivo para cada servidor de qurum que configure. -i nombre_instancia El nombre exclusivo que seleccione para la instancia del servidor de qurum. -p puerto El nmero de puerto en el que el servidor de qurum recibe las solicitudes del clster.
13
(Opcional) Para atender a ms de un clster utilizando un nmero de puerto o instancia diferente, configure una entrada adicional para cada instancia adicional del servidor de qurum que necesite. Guarde y cierre el archivo /etc/scqsd/scqsd.conf Inicie el servidor de qurum configurado recientemente.
quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
14 15
servidor_qurum Identifica el servidor de qurum. Puede utilizar el nmero del puerto de escucha del servidor de qurum. Si ha especificado un nombre de instancia en el archivo de configuracin, puede utilizar este nombre en su lugar.
Para iniciar un nico servidor de qurum, especifique el nombre de la instancia o el nmero de puerto. Para iniciar todos los servidores del qurum si se han configurado varios, utilice el operando +.
Errores ms frecuentes
El programa de instalacin realiza una instalacin sencilla mediante pkgadd de los paquetes de Servidor de qurum y configura los directorios necesarios. El programa consta de los siguientes paquetes:
Al instalar estos paquetes, se agrega el software a los directorios /usr/cluster y /etc/scqsd . No se puede modificar la ubicacin del software Servidor de qurum. Si aparece un mensaje de error de la instalacin relacionado con el software Servidor de qurum, compruebe que los paquetes se hayan instalado correctamente.
Pasos siguientes
Si desea utilizar una consola de administracin para comunicarse con los nodos del clster, vaya a Cmo instalar el software Cluster Control Panel en una consola de administracin en la pgina 67. De lo contrario, vaya a Cmo instalar el software de Solaris en la pgina 70.
de administracin, realice las tareas administrativas desde un nodo especfico del clster. No se puede utilizar este software para conectarse a los dominios invitados de Sun Logical Domains (LDoms). En este procedimiento, se describe cmo instalar el software Cluster Control Panel (CCP) en una consola de administracin. CCP proporciona una interfaz nica desde la que se pueden iniciar las herramientas cconsole, cssh, ctelnet y crlogin . Cada una de estas herramientas proporciona una conexin de varias ventanas a un conjunto de nodos, as como una ventana comn. Puede utilizar la ventana comn para enviar simultneamente la entrada a todos los nodos. Para obtener ms informacin, consulte la pgina de comando man ccp(1M). Puede utilizar cualquier equipo de escritorio que ejecute una versin del SO Solaris compatible con el software Oracle Solaris Cluster 3.3 como consola de administracin. Si utiliza el software Oracle Solaris Cluster en un sistema basado en SPARC, puede usar tambin la consola de administracin como servidor o consola de Sun Management Center . Consulte la documentacin de Sun Management Center para obtener informacin sobre cmo instalar el software Sun Management Center .
Antes de empezar
Asegrese de que una versin compatible del SO Solaris y los parches de Solaris se encuentren instalados en la consola de administracin. En todas las plataformas, se necesita, al menos, un grupo de software de Solaris de usuario final. Convirtase en superusuario en la consola de administracin. Inserte el D VD-R O Men la unidad de D VDR OM .
1 2
Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamen te el medio en el directorio /cdrom/cdrom0 .
Cambie a Directorio Solaris_ arch /Producto/sun_cluster/Solaris_ vers /Packages/ , donde arch es sparc o x86, y donde ver es 10 para Solaris 10 .
adminconsole# cd /cdrom/cdrom0/Solaris_ arch/Producto/sun_cluster/Solaris_ vers/Packages/
(Opcional) Instale los paquetes de pginas de comando man de Oracle Solaris Cluster.
adminconsole# pkgadd -d . pkgname . . .
Nombre del paquete Descripcin
Pginas de comando man de la estructura de Oracle Solaris Cluster Pginas de comando man de los servicios de datos de Oracle Solaris Cluster Pginas de comando man de Servidor de qurum
Al instalar los paquetes de pginas de comando man de Oracle Solaris Cluster en la consola de administracin, podr verlos desde esta consola antes de instalar el software Oracle Solaris Cluster en los nodos del clster o el servidor de qurum.
6
Extraiga el D VD-R O Mde la unidad de D VD-R O M . a. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. b. Expulse el D VD-R O M .
adminconsole# eject cdrom
en la consola de administracin.
Agregue el nombre del clster y el nombre del nodo fsico de cada nodo del clster al archivo.
Agregue una entrada de cada nodo del clster al archivo. Especifiqueel nombre fsico del nodo, el nombre de host del dispositivo de acceso a la consola y el nmero de puerto. Entre los
ejemplos de dispositivo de acceso a la consola se encuentran los concentradores de terminales (TC), un Procesador de servicio del sistema (SSP) y un controlador del sistema de Sun Fire.
adminconsole# vi /etc/serialports node1 ca-dev-hostname port node2 ca-dev-hostname port
nodo1, nodo2 Nombres fsicos de los nodos del clster. nombre_host_dispositivo_ca Nombre de host del dispositivo de acceso a la consola. puerto El nmero de puerto serie o el nmero de puerto de Secure Shell para las conexiones Secure Shell. Tenga en cuenta estas instrucciones especiales al crear el archivo /etc/serialports
Si utiliza un controlador del sistema de Sun Fire 15000, use el nmero de puerto 23 de telnet(1) como nmero de puerto serie de cada entrada. En todos los dems dispositivos de acceso a la consola, para conectarse a la consola mediante una conexin telnet , utilice el nmero de puerto serie de telnet y no el nmero de puerto fsico. Para determinar el nmero de puerto serie de telnet, sume 5000 al nmero de puerto fsico. Por ejemplo, si el nmero de puerto fsico es 6, el nmero de puerto serie de telnet es 5006. Si utiliza servidores de Sun Enterprise 10000, consulte tambin la pgina de comando man /opt/SUNWcluster/bin/ serialports(4) para obtener informacin e instrucciones especiales. En las conexiones Secure Shell a las consolas de nodos, especifique para cada nodo el nombre del dispositivo de acceso a la consola y el nmero de puerto que se utilizarn para la conexin segura. El nmero de puerto predeterminado para Secure Shell es 22. Para conectar directamente la consola de administracin a los nodos del clster o mediante una red de administracin, especifique para cada nodo el nombre de host y el nmero de puerto que utiliza el nodo para conectarse a la consola o la red de administracin.
(Opcional) Para facilitar el proceso, establezca las rutas de directorio en la consola de administracin. a. Agregue el directorio /opt/SUNWcluster/bin/ a P A T .H b. Agregue el directorio /opt/SUNWcluster/man/ a M A N P A. T H c. Si ha instalado el paquete S U N W sc m, a agregue n tambin el directorio /usr/cluster/man/ a
M A N P A. T H
10
En la ventana de CCP, haga clic en el botn cconsole, cssh, crlogin o ctelnet para iniciar la herramienta en cuestin. Tambin puede iniciar directamente cualquiera de estas herramientas. Por ejemplo, para iniciar ctelnet , escriba el siguiente comando:
adminconsole# /opt/SUNWcluster/bin/ctelnet &
Para establecer una conexin segura con las consolas de nodos, inicie la herramienta cconsole. A continuacin, en el men "Options" (Opciones) de la ventana de la consola del clster, habilite la casilla "Use SSH" (Usar SSH). Para establecer una conexin segura con los nodos del clster, utilice la herramienta cssh .
Consulte el procedimiento sobre cmo iniciar una sesin de forma remota en Oracle Solaris Cluster de Inicio de sesin remota en el clster de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin sobre el uso de la utilidad CCP. Consulte tambin la pgina de comando man ccp (1M).
Pasos siguientes
Determine si el SO Solaris ya se encuentra instalado para satisfacer los requisitos del software Oracle Solaris Cluster. Consulte Planificacin del sistema operativo Oracle Solaris en la pgina 16 para obtener informacin sobre los requisitos de instalacin de Oracle Solaris Cluster para el sistema operativo Solaris.
Si el sistema operativo Solaris cumple los requisitos de Oracle Solaris Cluster, vaya a Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Si, por el contrario, el SO Solaris no cumple los requisitos de Oracle Solaris Cluster, instale, vuelva a configurar o reinstale el sistema operativo si es necesario.
Para instalar nicamente el SO Solaris, vaya a Cmo instalar el software de Solaris en la pgina 70. Para utilizar el mtodo JumpStart personalizado scinstall para instalar el sistema operativo Solaris y el software Oracle Solaris Cluster, vaya aCmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.
en cada nodo. Si ya se ha instalado el SO Solaris en los nodos, pero no se cumplen los requisitos del sistema de Oracle Solaris Cluster, es posible que deba volver a instalar el software de Solaris. Siga los pasos descritos en este procedimiento para garantizar la correcta instalacin posterior del software Oracle Solaris Cluster. Consulte Planificacin del sistema operativo Oracle Solaris en la pgina 16 para obtener informacin acerca de la particin del disco raz necesaria y de los dems requisitos de instalacin de Oracle Solaris Cluster.
Antes de empezar
clster. Consulte la seccin Cmo preparar la instalacin del software del clster en la pgina 62 para obtener informacin sobre los requisitos y las directrices.
Asegrese de que se haya completado la configuraci n del hardware y de que se hayan comprobad o las conexiones antes de instalar el software de Solaris. Consulte la Coleccin de administrac in del hardware de Oracle Solaris Cluster y la documentac in del servidor y el dispositivo de almacenami ento para obtener informacin . Asegrese de que se haya completado la planificacin de configuraci n del
Rellene la Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273. Si utiliza un servicio de nombres, agregue las asignaciones de direccin y nombre de todas las direcciones lgicas y los nombres de host pblicos a los servicios de nombres que los clientes utilicen para acceder a los servicios de clster. Consulte la seccin Direcciones IP de red pblica en la pgina 27 para obtener directrices de planificacin. Consulte la documentacin del administrador de sistemas de Solaris para obtener informacin sobre el uso de servicios de nombres de Solaris.
Si utiliza una consola de administracin para el clster, abra una pantalla de la consola para cada nodo del clster.
S i el software Cluster Control Panel (CC P )se encuentra instalado y configurado en la consola de administracin, use la utilidad cconsole(1M) para que se muestren las pantallas individuales de la consola. Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
La utilidad cconsole abre, adems, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.
S i no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.
Nota Debe instalar la misma versin del SO Solaris en todos los nodos de un clster.
Puede utilizar cualquier mtodo empleado normalmente para instalar el software de Solaris. Durante la instalacin del software de Solaris, realice los siguientes pasos: a. Instale, como mnimo, el grupo de software de Solaris de usuario final.
Consejo Para no tener que instalar manualmente los paquetes de software de Solaris,
instale el grupo de software de Solaris completo ms la compatibilidad con OEM. Consulte Consideraciones sobre los grupos de software de Solaris en la pgina 18 para obtener informacin sobre los requisitos adicionales del software de Solaris. b. Seleccione "Manual Layout " (Diseo manual) para configurar los sistemas de archivos.
Indique que el segmento 7 tiene un tamao de, al menos, 20 MB. (Opcional) Cree un sistema de archivos de, al menos, 512 M B para el subsistema de dispositivos globales.
Nota Tambin puede utilizar el dispositivo lofi en lugar de crear este sistema de
archivos dedicado. Al establecer el clster, puede especificarel uso de un dispositivo lofi en el comando scinstall .
Cree todas las particiones del sistema de archivos que considere necesarias, como se describe en Particiones de disco del sistema en la pgina 19.
c. Para facilitar la administracin, establezca la contrasea del usuario root en cada nodo.
3
Si utiliza el control de acceso basado en funciones (R BAC) en lugar del superusuario para acceder a los nodos del clster, configure una funcin de R BAC que proporcione autorizacin para todos los comandos de Oracle Solaris Cluster. Para realizar esta serie de procedimientos de instalacin, se necesitan las siguientes autorizaciones de RBAC de Oracle Solaris Cluster si no se utiliza la cuenta de superusuario:
Consulte la seccin Role-Based Access Control (Overview) de System Administration Guide: Security Servicespara obtener ms informacin sobre las funciones de RBAC. Consulte las pginas de comando man de Oracle Solaris Cluster para saber la autorizacin de RBAC que requiere cada subcomando de Oracle Solaris Cluster.
Si va a agregar un nodo a un clster existente, agregue puntos de montaje para los sistemas de archivos del clster al nuevo nodo. a. En el nodo del clster activo, muestre los nombres de todos los sistemas de archivos del clster.
phys-schost-1# m ount | grep global | egrep -v n od e@ | aw k {print $1}
b. En el nuevo nodo, cree un punto de montaje para cada sistema de archivos del clster.
phys-schost-new# mkdir -p mountpoint
Por ejemplo, si el comando de montaje devuelve el nombre del sistema de archivos /global/dg-schost-1 , ejecute mkdir -p /global/dg-schost-1 en el nuevo nodo que va a agregar al clster.
5
Si va a agregar un nodo y V xV Mse encuentra instalado en un nodo del clster, realice las siguientes tareas. a. Asegrese de que se utilice el mismo nmero de vxio en los nodos en los que se encuent ra instalado V xV M .
phys-schost# grep vxio /etc/name_to_major vxio NNN
b. Asegrese de que el nmero de vxio est disponible para su uso en cada uno de los nodos en los que no se haya instalado V xV M . c. Si el nmero de vxio ya se est utilizando en un nodo en el que no se ha instalado V xV M cambie , la entrada /etc/name_to_major para utilizar un nmero diferente.
6
Si ha instalado el grupo de software de Solaris de usuario final y desea utilizar cualquiera de las funciones siguientes de Oracle Solaris Cluster, para poder utilizar estas funciones instale otros paquetes de Solaris.
Funcin Paquetes de software de Solaris obligatorios
Slo debe agregar estos paquetes a la zona global. La opcin -G permite agregar paquetes slo a la zona actual. Esta opcin permite indicar tambin que los paquetes no se propaguen a cualquier zona no global existente o que se cree posteriormente.
Instale los parches del SO Solaris necesarios, y el firmware y los parches relacionados con el hardware. Incluya estos parches para obtener compatibilidad con la matriz de almacenamiento. Descargue tambin el firmware necesario que se incluye en los parches de hardware. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.
x86: Establezca el archivo de inicio predeterminado. La configuracin de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesin.
grub edit> kernel /platform/i86pc/multiboot km db
scinstall agrega automticamente la direccin IP pblica de los nodos que se estn configurando al archivo /etc/inet/hosts .
10
(Opcional) En los servidores Sun Enterprise 10000, configure el archivo /etc/system para utilizar la reconfiguracin dinmica. Agregue la siguiente entrada al archivo etc/system en cada uno de los nodos del clster:
set kernel_cage_enable=1
Esta entrada se aplicar una vez reiniciado el sistema. Consulte la documentacin del servidor para obtener ms informacin sobre la reconfiguracin dinmica.
11
(Opcional) Configure los adaptadores de red pblica en los grupos de IPMP. Si no desea utilizar los grupos IPMP con varios adaptadores que la utilidad scinstall configura durante la creacin del clster, configure los grupos de IPMP personalizados del mismo modo que en un sistema independiente. Consulte Captulo 31, Administracin de IPMP (tareas) de Gua de administracin del sistema:serviciosIP para obtener ms informacin. Durante la creacin del clster, la utilidad scinstall configura cada conjunto de adaptadores de red pblica que utilizan la misma subred y que an no se han configurado en un grupo de IPMP para incluirlos en un grupo de IPMP con varios adaptadores. La utilidad scinstall omite todos los grupos de IPMP existentes.
12
Para poder utilizar la ruta mltiple de E/S de Solaris, debe habilitar la ruta mltiple en cada nodo.
se ejecuta el comando stmsboot en un nodo del clster activo, es posible que los servicios de Solaris cambien al estado de mantenimiento. En su lugar, siga las instrucciones de la pgina de comando man stmsboot(1M) para utilizar el comando stmsboot en un entorno de Oracle Solaris Cluster.
phys-schost# /usr/sbin/stmsboot -e
-e Habilita la multirruta de E/S de Solaris. Consulte la pgina de comando man stmsboot(1M) para obtener ms informacin.
Pasos siguientes
Si su servidor no admite la creacin de reflejos de unidades de disco duro internas y debe configurar esta funcin, vaya a Cmo configurar la creacin de reflejos de discos internos en la pgina 75. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.
Vase tambin
Consulte Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de reconfiguracin dinmica en una configuracin de Oracle Solaris Cluster.
Los servidores no admiten la creacin de reflejos de unidades de disco duro internas. Ya se ha establecido el clster. En su lugar, realice el procedimiento Mirroring Internal Disks on Servers that Use Internal Hardware Disk Mirroring or Integrated Mirroring de Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Antes de empezar 1 2
Asegrese de que se hayan instalado el sistema operativo Solaris y todos los parches necesarios. Convirtase en superusuario. Configure un reflejo interno.
phys-schost# raidctl -c clt0d0 clt1d0
-c clt0d0 clt1d0 Cree el reflejo del disco principal en el disco de reflejo. Especifiqueel nombre del disco principal como primer argumento. Especifiqueel nombre del disco de reflejo como segundo argumento. Para obtener detalles sobre cmo configurar la creacin de reflejos de discos internos, consulte la documentacin que se proporciona con el servidor y la pgina de comando man raidctl (1M).
Pasos siguientes
SPARC: Para crear Sun Logical Domains (LDoms), vaya a SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.
Antes de empezar
Realice las siguientes tareas: Asegrese de que el equipo sea compatible con el hipervisor SPARC.
Tenga a mano los documentos LogicalDomains (LDoms) 1.0.3 Administration Guide y Logical Domains (LDoms) 1.0.3 Release Notes. Lea los requisitos y las directrices de SPARC: Directrices para Sun Logical Domains en un clster en la pgina 24.
1 2
Convirtase en superusuario en el equipo. Instale el software LDomsy configure los dominios. Siga los procedimientos descritos en la seccin Installing and Enabling Software de Logical Domains (LDoms) 1.0.3 Administration Guide. Si crea dominios invitados, siga las directivas de Oracle Solaris Cluster para la creacin de dominios invitados en un clster.
Use la opcin mode=scpara todos los dispositivos de conmutacin virtuales que conectan los dispositivos de red virtuales utilizados como interconexin del clster. Para el almacenamiento compartido, asigne slo los discos S C S Icompletos a los dominios invitados.
Pasos siguientes
Si su servidor no admite la creacin de reflejos de unidades de disco duro internas y debe configurar esta funcin, vaya a Cmo configurar la creacin de reflejos de discos internos en la pgina 75. Para instalar VxFS, vaya a Cmo instalar el software Sistema de archivos de Veritas en la pgina 77. De lo contrario, instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.
En el archivo /etc/system de cada uno de los nodos, establezca los siguientes valores.
set rpcmod:svc_default_stksize=0 set lwp_default_stksize=0x6000 x8000
El software Oracle Solaris Cluster necesita un valor de rpcmod:svc_default_stksize mnimo de0x8000. Dado que, durante la instalacin de VxFS se establece el valor de la variable rpcmod:svc_default_stksize en 0x4000, debe configurar manualmente el valor en 0x8000 una vez finalizada la instalacin. Debe configurar la variable lwp_default_stksize del archivo /etc/system para que anule el valor predeterminado de VxFS que se ha establecido en 0x4000.
Pasos siguientes
Instale los paquetes de software Oracle Solaris Cluster. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.
Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster
Siga este procedimiento para realizar una o varias de las tareas de instalacin siguientes con la utilidad installer :
Instale los paquetes de software de la estructura de Oracle Solaris Cluster en cada nodo del clster global. Estos nodos pueden ser equipos fsicos o dominios invitados o de E/S de Sun Logical Domains (LDoms) (slo en SPARC), o una combinacin de estos tipos de nodos. Instale el software de la estructura de Oracle Solaris Cluster en el nodo maestro en el que se crear un archivo de almacenamiento Flash para una instalacin mediante el mtodo JumpStart. Consulte Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 para obtener ms informacin sobre la instalacin de un clster global mediante el mtodo JumpStart. Instale los servicios de datos
Nota Este procedimiento instala servicios de datos slo en la zona global. Si desea
instalar los servicios de datos para que estn visibles en una determinada zona no global, consulte Cmo crear una zona no global en un nodo del clster global en la pgina 223.
. Para utilizar el formato no interactivo del programa installer como, por ejemplo, al generar secuencias de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar
Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
Restaure el acceso externo a comunicacin R P Cy, si lo desea, a Oracle Java Web Console. Durante la instalacin del sistema operativo Solaris, se utiliza un perfil de red restringida inhabilita el acceso externo para algunos servicios de red. Entre los servicios restringidos, se incluyen aquellos que afectan a la funcionalidad del clster:
El servicio de comunicacin RPC, que es necesario para la comunicacin del clster. El servicio de Oracle Java Web Console, que es necesario para utilizar la GUI de Oracle Solaris Cluster Manager.
Mediante los siguientes pasos se pueden restaurar las funciones de Solaris utilizadas por la estructura de Oracle Solaris Cluster, pero cuyo uso se limita al utilizar un perfil de red restringido. a. Ejecute los comandos siguientes para restaurar el acceso externo a la comunicacin RPC.
phys-schost# svccfg svc:> select network/rpc/bind svc:/network/rpc/bind> setprop config/local_only=false svc:/network/rpc/bind> quit phys-schost# svcadm refresh network/rpc/bind:default phys-schost# svcprop network/rpc/bind:default | grep local_only
En la salida del ltimo comando, la propiedad local_only debera aparecer ahora configurada como "false" (falso). b. (Opcional) ejecute los comandos siguientes para restaurar el acceso externo a Oracle Java Web Console.
phys-schost# svccfg
s v c : > s e l e c t s y s t e m / w e b c o n s o l e s v c : / s y s t e m / w e b c o n s o l e > s e t p r o p o
ptions/tcp_listen=true
El resultado del siguiente comando debera devolver una entrada para 6789, que es el nmero de puerto utilizado para conectarse a Oracle Java Web Console. Para obtener ms informacin sobre los servicios que limita el perfil de red restringido en las conexiones locales, consulte Planificacin de la seguridad de la red de Gua de instalacin de Solaris 10 10/09: planificacinde la instalacin y la modernizacin.
2
(Opcional) Para usar el programa installer con una G U I,asegrese de que el entorno de visualizacin del nodo del clster que se va a instalar se haya configurado para mostrar la GUI.
% xhost + % setenv D IS P L A Y nodenam :0.0 e
Inserte el D VD-R O Men la unidad de D VD-R OM . Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. Acceda al directorio del asistente de instalacin del D VD-R OM .
Consulte Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para obtener informacin adicional sobre el uso de los diferentes formatos y funciones del programa installer de
7
Siga las instrucciones que aparecen en la pantalla para instalar el software de la estructura de Oracle Solaris Cluster y los servicios de datos en el nodo.
Si no desea instalar Oracle Solaris Cluster Manager, que anteriormente se denominaba SunPlex Manager, anule su seleccin.
Nota Debe instalar Oracle Solaris Cluster Manager en todos los nodos del clster o, de
Si desea instalar el software Oracle Solaris Cluster Geographic Edition, seleccinelo. Una vez establecido el clster, consulte Oracle Solaris Cluster Geographic Edition Installation Guide para obtener los procedimientos de instalacin adicionales.
Cuando se le solicite, seleccione Configurar ms tarde para configurar el software de la estructura de Oracle Solaris Cluster. Una vez finalizada la instalacin, puede consultar el registro de instalacin disponible.
10
Pasos siguientes
Extraiga el D VDR O Mde la unidad de D VD-R OM . a. Para asegurarse de que no se est utilizando el D VD-R O M , acceda a un directorio que no est incluido en ste. b. Expulse el D VD-R OM .
p h y s s c h o s t # e j e c t c d r o m
Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. Si va a utilizar uno de los adaptadores que se especifican a continuacin para la interconexin de clster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
Adaptador Entrada
ce ipge ixge
Esta entrada se aplicar una vez reiniciado el sistema. Si desea instalar el sistema de archivos Sun QFS, siga los procedimientos de instalacin inicial. Consulte Cmo instalar el software Sun QFS en la pgina 82.
Aplique los parches necesarios para admitir el uso del software Oracle Solaris Cluster.
De lo contrario, para configurar el entorno de usuario root, vaya a Cmo configurar el entorno de usuario root en la pgina 82.
2 3
Pasos siguientes
usuario para los diversos shells comprueban si stos se ejecutan en un shell interactivo. Deben verificarse los archivos antes intentar de establecer una salida en el terminal. De lo contrario, puede producirse un comportamiento inesperado o los archivos pueden interferir en los servicios de datos. Consulte Customizing a Users Work Environment de System Administration Guide: Basic Administration para obtener ms informacin. Realice este procedimiento en cada nodo del clster global.
1 2
Convirtase en superusuario en un nodo de clster. Modifique las entradas P A T H y M A N P A del T H archivo .cshrc o .profile . a. Agregue /usr/sbin/ b. Agregue /usr/cluster/man/ y /usr/cluster/bin/ a M A N P A. T H a P A T .H
dems aplicaciones para obtener informacin sobre las rutas de archivo que deben establecerse.
(Opcional) Para facilitar la administracin, establezca la misma contrasea del usuario root en cada nodo, si an no lo ha hecho. Si desea utilizar el filtro IP de Solaris, vaya a Cmo configurar el filtro IP de Solaris en la pgina 83. De lo contrario, configure el software Oracle Solaris Cluster en los nodos del clster. Vaya a Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86.
Pasos siguientes
se admite el uso del filtro IP de Solaris con los servicios de datos escalables. Para obtener ms informacin sobre la funcin de filtro IP de Solaris, consulte Parte IV, Seguridad IP de Gua de administracin del sistema:serviciosIP.
Antes de empezar
Lea las directrices y restricciones que se deben seguir al configurar el filtro IP de Solaris en un clster. Consulte el apartado relativo al filtro IP en Restricciones de las funciones del sistema operativo Oracle Solaris en la pgina 17. Convirtase en superusuario. Agregue las reglas de filtros al archivo /etc/ipf/ipf.conf en todos los nodos afectados. Tenga en cuenta las siguientes directrices y requisitos al agregar reglas de filtros a los nodos de Oracle Solaris Cluster.
1 2
En el archivo ipf.conf de cada uno de los nodos, agregue las reglas para permitir de forma explcita el paso del trfico de interconexin del clster sin filtrar. Las reglas que no sean especficas de una interfaz se aplicarn a todas las interfaces, incluidas las interconexiones del clster. Asegrese de que no se bloquee por error el trfico en estas interfaces. Si se bloquea el trfico de interconexin, la configuracin del filtro IP interfiere en las operaciones de infraestructura y entrada en comunicacin de clster. Por ejemplo, suponga que se estn utilizando actualmente las siguientes reglas:
# Default block T C P/U D P unless some later rule overrides block return-rst in proto tcp/udp from any to any
# D e f a u l t b l o c k p i n g u n l e s s s o m e l a t e r r u l e o v e r r i d e s b l o c k r e t
urn-rst
Para desbloquear el trfico de interconexin del clster, agregue las siguientes reglas. Las subredes se utilizan nicamente a modo de ejemplo. Obtenga las subredes que se van a utilizar mediante el comando ifconfig interface.
# Unblock cluster traffic on 172.16.0.128/25 subnet (physical pass in quick proto tcp/udp from 172.16.0.128/25 to any pass out quick proto tcp/udp from 172.16.0.128/25 to any # Unblock cluster traffic on 172.16.1.0/25 subnet (physical pass in quick proto tcp/udp from 172.16.1.0/25 to any pass out quick proto tcp/udp from 172.16.1.0/25 to any interconnect)
interconnect)
# Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet) pass in quick proto tcp/udp from 172.16.4.0/23 to any pass out quick proto tcp/udp from 172.16.4.0/23 to any
Puede especificarel nombre del adaptador o la direccin IP de una red privada de clsteres. Por ejemplo, la regla siguiente especifica una red privada de clsteres por el nombre de su adaptador:
# Allow all traffic on cluster pass in quick on e1000g1 all . . . private networks.
El software Oracle Solaris Cluster migra las direcciones de red de un nodo a otro tras un error. No se necesita ningn procedimiento o cdigo especial durante la migracin tras error. Todas las reglas de filtrado que hacen referencia a las direcciones IP de los recursos de direccin compartida y nombre de host lgico deben ser idnticas en todos los nodos del clster. Las reglas en un nodo en espera harn referencia a una direccin IP inexistente. Esta regla sigue formando parte del conjunto de reglas activas del filtro IP y se aplicar cuando el nodo reciba la direccin tras una migracin tras error. Todas las reglas de filtrado deben ser iguales para todos los NIC del mismo grupo IPMP. En otras palabras, si una regla es especfica de una interfaz, la misma regla debe aplicarse a todas las dems interfaces del grupo IPMP.
Para obtener ms informacin sobre las reglas del filtro IP de Solaris, consulte la pgina de comando man ipf (4).
3
Habilite el ipfilter .
servicio
de
SM F
Configure el software Oracle Solaris Cluster en todos los nodos del clster. Vaya a Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86.
A P T U L O
Este captulo presenta los procedimientos para establecer un clster global o un nodo de clster global nuevo.
Nota Para crear un clster de zona, consulte Configuracin de un clster de zona
en la pgina 229. Para poder crear un clster de zona, debe establecer un clster global primero. En este captulo se describen los siguientes procedimientos:
Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) en la pgina 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) en la pgina 98 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 Cmo preparar el clster para nodos de clster global adicionales en la pgina 125 Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142 Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146 Cmo configurar dispositivos del qurum en la pgina 149 Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Configuracin de la distribucin de la carga de grupos entre nodos en la pgina 158 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166 Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169
85
Mapa de tareas: establecer un nuevo clster global Mapa de tareas: agregar un nodo a un clster global
TA B L A 31 Mtodo
Use uno de los mtodos siguientes para establecer un nuevo clster global:
Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall ) en la pgina 88 Cmo configurar el software Oracle Solaris Cluster en todos los nodos (XML) en la pgina 98
Cmo instalar el software de Solaris y Oracle Solaris Cluster Configure un servidor de instalacin de JumpStart. A (JumpStart) en la pgina 107 continuacin, cree un archivo de almacenamiento flash del sistema instalado. Por ltimo, utilice la opcin scinstall de JumpStart para instalar el archivo de almacenamiento flash en todos los nodos y establecer el clster. Cmo configurar dispositivos del qurum en la pgina 149 Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166
Asigne los votos del qurum y abandone el modo de instalacin del clster si todava no lo ha hecho. Valide la configuracin del qurum. (Opcional) Cambie el nombre de host privado de un nodo. Cree o modifique el archivo de configuracin de NTP si no lo ha hecho todava. (Opcional) Configure IPsec para proteger la interconexin privada.
86
(Continuacin)
Instrucciones
Si utiliza un administrador de volmenes, instale el software de administracin de volmenes. Cree sistemas de archivos del clster o sistemas de archivos locales de alta disponibilidad segn sea necesario. (Opcional) SPARC: Configure Sun Management Center para que supervise el clster. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Captulo 4, Configuracin del software Solaris Volume Manager o Captulo 5, Instalacin y configuracin de Veritas Volume Manager o Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Oracle Solaris Cluster Data ServicesPlanning and Administration Guide Documentacin suministrada con el software de la aplicacin
Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169
Utilice el comando clsetup para agregar el nodo nuevo a la lista de nodos autorizados del clster. Si fuera necesario, configure tambin la interconexin del clster y reconfigure el intervalo de direcciones de red privada. Reconfigure la interconexin del clster y el rango de direcciones de redes privadas como sea preciso para acomodar el nodo agregado.
Cmo preparar el clster para nodos de clster global adicionales en la pgina 125
Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128
Use uno de los mtodos siguientes para agregar un nodo a un clster global:
Cmo instalar el software de Solaris y Oracle Solaris Cluster Configure un servidor de instalacin de JumpStart. A (JumpStart) en la pgina 107 continuacin, cree un archivo de almacenamiento flash del sistema instalado. Por ltimo, utilice la opcin scinstall de JumpStart para instalar el archivo de almacenamiento flash en el nodo que se agrega al clster. Configure el software Oracle Solaris Cluster en el nodo nuevo Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 mediante la utilidad scinstall . Configure el software Oracle Solaris Cluster en el nodo nuevo Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142 mediante un archivo de configuracin XML. Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146
87
(Continuacin)
Instrucciones
Valide la configuracin del qurum. (Opcional) Cambie el nombre de host privado de un nodo. Modifique la configuracin de NTP. Si IPsec est configurado en el clster, configure IPsec en el nodo agregado. Si utiliza un administrador de volmenes, instale el software de administracin de volmenes. Cree sistemas de archivos del clster o sistemas de archivos locales de alta disponibilidad segn sea necesario. (Opcional) Si el clster utiliza SPARC: Sun Management Center , instale Sun Management Center en el nodo nuevo y configure dicho nodo para supervisin. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155 Cmo cambiar nombres de host privados en la pgina 156 Cmo configurar Network Time Protocol (NTP) en la pgina 164 Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166 Captulo 4, Configuracin del software Solaris Volume Manager o Captulo 5, Instalacin y configuracin de Veritas Volume Manager o Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253 Oracle Solaris Cluster Data Services Planning and Administration Guide Documentacin suministrada con el software de la aplicacin
Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169
Cmo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall )
Lleve a cabo este procedimiento en uno de los nodos del clster global para configurar el software Oracle Solaris Cluster en todos los nodos del mismo.
88
. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalacin, consulte la pgina de comando man scinstall (1M). Asegrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall . Para obtener informacin sobre cmo ejecutar el programa installer de desde una secuencia de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar
Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en todos los nodos. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado
172.16.0.0 255.255.240.0
89
Establecimien to de un nuevo clster global o de un nuevo nodo de clster global Adaptadores de transporte de clster
90
Componen te
Valor predeterminado
/globaldevices Si scinstall no encuentra un sistema de archivos /globaldevices montado en /etc/vfstab en un nodo, le solicita que configure un dispositivo lofi o que especifique otro nombre de sistema de archivos Limitada
Rellene una de las hojas de trabajo para la configuracin del clster de las que se muestran a continuacin en funcin de si ejecuta la utilidad scinstall en el modo tpico o personalizado.
Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Respuesta
Componen te
Descripcin/Ejemplo
Nombre del clster Nodos del clster Cables y adaptadores para el transporte del clster
Cmo se llama el clster que desea establecer? Muestra los nombres del resto de los nodos que se van a incluir en la configuracin inicial del clster. (En el caso de un clster con un solo nodo, pulse Control+D). Cmo se llaman los dos adaptadores de transporte del clster que acoplan el nodo a la interconexin privada? Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador?
Primero
Segundo
S | No
S | No
Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera los requisitospara ser un dispositivodel qurum o si desea configurarun servidor de qurum o un dispositivo NAS de Network Appliance como dispositivodel qurum). Desea interrumpir la creacin del clster para comprobar errores mediante el comando cluster check?
S | No
S | No
Componen te
Descripcin/Ejemplo
Respuesta
(Este mensaje aparece cuando no se encuentra ningn sistema de archivos /globaldevicesmontado en un nodo). Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? (Slo Solaris 10) En caso de haber respondido negativamente, prefiere utilizar un dispositivo lofi y continuar con la instalacin? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? Cmo se llama el sistema de archivos que desea utilizar?
S | No
S | No
S | No
Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.
Nota Al instalar un clster de un solo nodo, la utilidad scinstall
asigna
automticamente la direccin de red privada y la mscara de red predeterminadas, aunque el clster no utilice una red privada.
Componen te
Descripcin/Ejemplo
Respuesta
Cmo se llama el clster que desea establecer? Muestra los nombres del resto de los nodos que se van a incluir en la configuracin inicial del clster. (En el caso de un clster con un solo nodo, pulse Control+D). Necesita usar la autenticacin DES? No | S
Autenticacin de solicitudes para agregar nodos (slo clsteres de varios nodos) Nmero mnimo de redes privadas (slo clsteres de varios nodos) Cables punto a punto (slo clsteres de varios nodos)
Conmutadores de clster (slo clsteresde varios nodos) Cables y adaptadores para el transporte del clster (slo clsteresde varios nodos) Nombre del conmutador de transporte: Valores predeterminados: switch1 y switch2 Nombre del nodo (nodo desde el que ejecuta scinstall):
Primero
Segundo
Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Desea utilizar la funcin de descubrimiento automtico para que se muestren los adaptadores disponibles para el resto de los nodos? En caso negativo, proporcione la siguiente informacin para cada nodo adicional: Primero S | No
Segundo
S | No
Segundo
S | No
S | No
S | No
Especifiquela informacin para cada nodo adicional (slo clsteresde varios nodos)
Nombre del nodo: Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Primero Segundo S | No S | No Segundo
S | No
S | No
92
Direccin de red para el transporte del clster (slo clsteres de varios nodos)
Acepta la direccin de red predeterminada (172.16.0.0 )? En caso negativo, qu direccin de red privada desea utilizar? Acepta la mscara de red predeterminada? En caso negativo, cul es el nmero mximo de nodos, redes privadas y clsteres de zona que pretende configurar en el clster? .
S | No . .
Qu mscara de red desea usar? (Elija uno de los valorescalculadospor scinstall o introduzca sus propios valores). Aislamiento global Desea inhabilitar el aislamiento global? (Responda No a menos que el sistema de almacenamiento compartido no admita reservasde SCSI o si desea que accedan al sistema de almacenamiento compartido sistemas externos al clster). Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera los (slo clsteres de dos nodos) requisitospara ser un dispositivo del qurum o si desea configurarun servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum). Sistema de archivos de dispositivos globales (especifiqueesta informacin para cada nodo) Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? En caso negativo, se puede utilizar el mtodo lofi? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? Cmo se llama el sistema de archivos que desea utilizar? Comprobacin (slo clsteres de varios nodos) (slo clsteres de un solo nodo) Reinicio automtico (slo clsteres de un solo nodo) Desea interrumpir la creacin del clster para comprobar errores mediante el comando cluster check?
S | No
S | No
S | No
S | No
S | No S | No S | No
S | No
Desea ejecutar la utilidad cluster check para validar el clster? Desea que scinstall reinicie automticamente el nodo tras la instalacin?
S | No
S | No
93
La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Si ha inhabilitado la configuracin remota durante la instalacin del software Oracle Solaris Cluster, vuelva a habilitarla. Habilite acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del clster. Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (ND P)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.
phys-schost# /usr/cluster/bin/scinstall 4
Escriba el nmero correspondiente a la opcin Create a New Cluster or Add a Cluster Node (Crear un clster o agregar un nodo de clster) y pulse la tecla Intro.
*** Main M enu *** Please select from one of the following (*) options: server
* 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option:
94
Escriba el nmero correspondiente a la opcin para crear un clster y pulse la tecla Intro. Aparece el men Typical or Custom Mode (Modo tpico o personalizado).
Escriba el nmero correspondiente a la opcin Typical or Custom (Tpica o Personalizada) y pulse la tecla Intro. Aparece la pantalla Create a New Cluster (Crear un clster). Lea los requisitos y, a continuacin, pulse Control+D para continuar.
Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. La utilidad scinstall instala y configura todos los nodos del clster y reinicia el clster. El clster se establecer cuando todos los nodos se hayan iniciado satisfactoriamente en l. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default
Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status
95
10
(Opcional) Habilite la funcin de reinicio automtico de nodos. Esta funcin reinicia automticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del clster. a. Habilite automtico. -p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . node enabled
el
reinicio
11
Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para N FS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs
96
Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de
alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
Ejemplo 31
Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices " on "phys-schost-1 " . . . done Testing for "/globaldevices " on "phys-schost-2 " . . . done Checking installation status . . . done The Sun Cluster software is already installed on "phys-schost-1 ". The Sun Cluster software is already installed on "phys-schost-2 ". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 phys-schost-1:qfe3 switch1 switch2 phys-schost-2:qfe2 phys-schost-2:qfe3 transport configuration.
check completed with no errors or warnings for "phys-schost-1 ". check completed with no errors or warnings for "phys-schost-2 ". ... done
Configuring "phys-schost-2 " . . . done Rebooting "phys-schost-2 " . . . done Configuring "phys-schost-1 " . . . done Rebooting "phys-schost-1 " . . . Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting . . . Errores ms frecuentes
Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento.
Pasos siguientes
Si ha instalado un clster con un nico nodo, ya se ha completado el establecimiento del clster. Vaya a Creacin de sistemas de archivos del clster en la pgina 217 para instalar el software de administracin de volmenes y configurar el clster. Si ha instalado un nodo de varios clsteres y ha decidido configurar el qurum automticamente, la configuracin posterior a la instalacin finaliza aqu. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster de varios nodos y ha rechazado la configuracin automtica del qurum, lleve a cabo la configuracin posterior a la instalacin. Vaya a Cmo configurar dispositivos del qurum en la pgina 149.
Si pretende configurar algn dispositivo del qurum en el clster, vaya a Cmo configurar dispositivos del qurum en la pgina 149. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
Nombre del clster Pertenencia de nodos del clster Interconexin del clster Dispositivos globales
Antes de empezar
Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster. Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que el software y los parches de Oracle Solaris Cluster 3.3 estn instalados en todos los nodos que vaya a configurar. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78.
Asegrese de que el software Oracle Solaris Cluster 3.3 no est instalado todava en los nodos potenciales del clster. a. Convirtase en superusuario en alguno de los nodos que desee configurar en el clster nuevo.
Este mensaje indica que el software Oracle Solaris Cluster todava no se ha configurado en el nodo potencial.
S i el comando devuelve el nmero de ID del nodo, no realice este procedimiento. La devolucin de un ID de nodo indica que el software Oracle Solaris Cluster ya est configurado en el nodo. Si el clster ejecuta una versin anterior del software Oracle Solaris Cluster y desea instalar el software Oracle Solaris Cluster 3.3, realice los procedimientos de actualizacin recogidos en Oracle Solaris Cluster UpgradeGuide.
c. Repita los pasos a y b en el resto de los nodos potenciales que desee configurar en el clster nuevo. Si el software Oracle Solaris Cluster an no se ha configurado en ningn nodo potencial del clster, vaya al paso 2.
2
Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (ND P)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.
Si est creando un reflejo de un clster existente que ejecuta el software Oracle Solaris Cluster 3.3, utilice un nodo de ese clster para crear un archivo X M Lde configuracin del clster. a. Convirtase en superusuario en un miembro activo del clster que desee reflejar. b. Exporte la informacin de la configuracin del clster existente a un archivo.
phys-schost# cluster export -o clconfigfile
-o Especificael destino de salida. clconfigfile Nombre del archivo XML de configuracin del clster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando
crear. Para obtener ms informacin, consulte la pgina de comando man cluster (1CL).
c. Copie el archivo de configuracin en el nodo potencial desde el que configurar el clster nuevo. Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurar como nodos del clster.
4 5
Convirtase en superusuario en el nodo potencial desde el que configurar el clster nuevo. Modifique el archivo X M Lde configuracin del clster segn sea necesario. a. Abra el archivo X M Lde configuracin del clster para editarlo.
Si va a crear un reflejo de un clster existente, abra el archivo que cre con el comando cluster expor t. S i no va a crear un reflejo de un clster existente, cree un archivo nuevo. Base el archivo en la jerarqua de elementos que se muestra en la pgina de comando man clconfiguration (5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurar como nodos del clster.
b. Modifique los valores de los elementos X M Lpara reflejar la configuracin de clster que desea crear.
Para poder establecer un clster, los siguientes componentes deben poseer valores vlidos en el archivo XML de configuracin del clster:
A l crear el clster, se asume que la particin /globaldevices existe en todos los nodos que configure como nodos del clster. El espacio de nombres de los dispositivos globales se crea en esa particin. Si necesita utilizar un nombre de sistema de archivos distinto para crear los dispositivos globales, agregue la propiedad que aparece a continuacin al elemento <propertyList> de los nodos que no tengan una particin denominada /globaldevices .
. . . <nodeList> <node name="node" id= "N"> <propertyList> . . . . . . . . .
<property name="globaldevfs"
Si prefiere utilizar un dispositivo lofi para el espacio de nombres de los dispositivos globales, establezca el valor de la propiedad globaldevfs en lofi .
Cuando modifique informacin de configuracin exportada desde un clster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo clster, como los nombres de nodo, en las definiciones de varios objetos del clster.
Consulte la pgina de comando man clconfiguration(5CL) para obtener informacin detallada sobre la estructura y el contenido del archivo XML de configuracin del clster.
6
Consulte la pgina de comando man xmllint(1) para obtener ms informacin. Cree el clster desde el nodo potencial que contiene el archivo X M Lde configuracin del clster.
7 phys-schost# cluster create -i clconfigfile
-i clconfigfile Especificael nombre del archivo XML de configuracin del clster que se va a utilizar como fuente de entrada.
8
Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default
Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status
Instale los parches necesarios para que el software Oracle Solaris Cluster sea compatible, si todava no lo ha hecho.
Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.
11
Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para NFS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs
alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
12
Para crear reflejos de la informacin del qurum de un clster existente, configure el dispositivo del qurum con el archivo X M Lde configuracin del clster. Debe configurar un dispositivo del qurum si ha creado un clster de dos nodos. Si decide no utilizar el archivo XML de configuracin del clster para crear un dispositivo del qurum requerido, vaya a Cmo configurar dispositivos del qurum en la pgina 149. a. Si utiliza un servidor de qurum como dispositivo del qurum, asegrese de que el servidor est configurado y funcione correctamen te. Siga las instrucciones incluidas en Instalacin y configuracin del software Servidor de qurum en la pgina 64.
b. Si utiliza un dispositivo N A Scomo dispositivo del qurum, asegrese de que est configurado y operativo. i. Tenga en cuenta los requisitos para la utilizacin de un dispositivo N A Scomo dispositivo del qurum. Consulte Oracle Solaris Cluster 3.3 With Network-Attached StorageDevices Manual. ii. Siga las instrucciones de la documentacin del dispositivo N A Spara configurarlo. c. Asegrese de que la informacin de configuracin del qurum incluida en el archivo X M L de configuracin del clster refleje valores vlidos para el clster que ha creado. d. Si ha realizado cambios en el archivo X M Lde configuracin del clster, valdelo.
phys-schost# xmllint --valid --noout clconfigfile
nombre_dispositivo Especificael nombre del dispositivo que se va a configurar como dispositivo del qurum.
13
14
Impida el acceso de mquinas que no estn configuradas como miembros del clster a la configuracin del mismo.
phys-schost# claccess deny-all
15
(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled
-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: node
. . . reboot_on_path_failure: . . . Ejemplo 32
enabled
Configuracindel software Oracle Solaris Cluster en todos los nodos utilizando un archivo X M L
En el siguiente ejemplo, se crea el reflejo de la configuracin del clster y del qurum de un clster de dos nodos existente en un clster de dos nodos nuevo. El clster nuevo se instala con el SO Solaris 10y se configura sin zonas no globales. La configuracin del clster se exporta desde el nodo del clster existente, phys-oldhost-1 , al archivo XML de configuracin del clster clusterconf.xml . Los nombres de los nodos del clster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del qurum en el nuevo clster es d3. El nombre de indicador phys-newhost- N de este ejemplo seala que el comando se ejecuta en los dos nodos del clster.
phys-newhost- N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable
phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xmlto phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xm l phys-newhost- N# svcs multi-user-server STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml phys-newhost-1# clquorum reset Errores ms frecuentes d3
Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
Pasos siguientes
Vase tambin
Una vez que se haya establecido completamente el clster, puede crear reflejos de la configuracin del resto de los componentes del clster existente. Si an no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuracin del clster a la que va a agregar el componente. Por ejemplo, si va a crear reflejos de grupos de recursos, asegrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo vlidos para el clster nuevo y no los nombres de nodo del clster que ha reflejado, a no ser que ambos coincidan. Para crear reflejos de un componente del clster, ejecute el subcomando export del comando orientado a objetos en el componente del clster que desee reflejar. Para obtener ms informacin acerca de la sintaxis y las opciones del comando, consulte la pgina de comando man del objeto del clster que desee reflejar. En la tabla que aparece a continuacin, se muestran los componentes del clster que se pueden crear desde un archivo XML de configuracin del clster una vez que ste se haya establecido, as como la pgina de comando man correspondiente al comando que se utiliza para crear reflejos del componente.
Instrucciones especiales
cldevicegroup (1CL)
En el caso de Solaris Volume Manager, cree en primer lugar los conjuntos de discos que especifique en el archivo XML de configuracin del clster. En cuanto a VxVM, instale y configure en primer lugar el software VxVM y cree los grupos de discos que especifique en el archivo XML de configuracin del clster.
Recursos Recursos de direccin compartida Recursos de nombre de host lgico Tipos de recursos Grupos de recursos Dispositivos NAS
clresource (1CL) clressharedaddress clreslogicalhostname clresourcetype (1CL) clresourcegroup (1CL) clnasdevice (1CL) (1CL) (1CL)
Puede utilizar la opcin -a de los comandos clresource , clressharedaddress o clreslogicalhostname para crear reflejos del tipo y el grupo de recursos asociados al recurso que va a reflejar. Si no la utiliza, debe agregar primero el tipo y el grupo del recurso al clster antes de aadir el recurso. Debe configurar, en primer lugar, el dispositivo NAS, tal como se describe en la documentacin del dispositivo. El comando clsnmphost create -i requiere que se especifique un archivo de contrasea de usuario con la opcin -f .
Hosts SNMP
clsnmphost (1CL)
Usuarios de SNMP
clsnmpuser (1CL)
Instrucciones especiales
Umbrales de los recursos del sistema de supervisin en los objetos del clster
cltelemetryattribute
(1CL)
Antes de empezar
Asegrese de que la configuracin del hardware se haya completado correctamente y de que se hayan comprobado las conexiones antes de instalar el software de Solaris. Consulte la Coleccinde administracin del hardware de Oracle Solaris Cluster y la documentacin del servidor y del dispositivo de almacenamiento para obtener informacin acerca de cmo configurar el hardware. Determine la direccin Ethernet de cada nodo del clster. Si utiliza un servicio de nombres, asegrese de que la informacin que se especificaa continuacin se incluya en los servicios de nombres que utilizan los clientes para acceder a los servicios del clster. Consulte las directrices de planificacin de Direcciones IP de red pblica en la pgina 27. Consulte la documentacin del administrador de sistemas de Solaris para obtener informacin sobre el uso de servicios de nombres de Solaris.
Asignacin de direccin al nombre para todos los nombres de host pblicos y las direcciones lgicas.
Asegrese de que se haya completado la planificacin de configuracin del clster. Consulte la seccin Cmo preparar la instalacin del software del clster en la pgina 62 para conocer los requisitos y las directrices. Asegrese de que todo el software, los parches y el firmware del SO Solaris necesarios para admitir el software Oracle Solaris Cluster estn instalados en el servidor desde el que va a crear el archivo de almacenamiento flash. Si el software de Solaris ya est instalado en el servidor, debe comprobar que la instalacin de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 instalar el software de Solaris de forma que cumpla los
requisitos del s o f t w a r e O r a c l e S o l a r i s C l u s t e r .
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en el servidor desde el que va a crear el archivo de almacenamiento flash. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado
Direccin de red privada Mscara de red privada Adaptadores de transporte de clster Conmutadores de transporte de clster Aislamiento global Nombre del sistema de archivos de los dispositivos globales
172.16.0.0 255.255.240.0 Exactamente dos adaptadores switch1 y switch2 Habilitado /globaldevices (es necesaria una entrada en /etc/vfstab para montar /globaldevices ) Limitada
Rellene una de las hojas de trabajo para la configuracin del clster de las que se muestran a continuacin en funcin de si ejecuta la utilidad scinstall en el modo tpico o personalizado. Consulte Planificacin del entorno de Oracle Solaris Cluster en la pgina 26 para obtener directrices sobre planificacin.
Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Descripcin/Ejemplo Respuesta
Componen te
Cmo se llama el directorio JumpStart que se va a utilizar? Cmo se llama el clster que desea establecer?
Componen te
Descripcin/Ejemplo
Respuesta
Muestra los nombres de los nodos del clster que se pretenden incluir en la configuracin inicial del clster. (Si se trata de un clster de un solo clster, pulse Control+D). Nombre del primer nodo: Primero Nombres de los adaptadores de transporte: Segundo
Slo adaptadoresVLAN
Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador?
S | No
S | No
Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera (slo clsteres de los requisitospara ser un dispositivodel qurum o si desea configurarun dos nodos) servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum).
S | No
S | No
Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.
Nota Al instalar un clster de un solo nodo, la utilidad scinstall
usa automticamente la direccin de red privada y la mscara de red predeterminadas, aunque el clster no utilice una red privada.
Componen te
Descripcin/Ejemplo
Respuesta
Cmo se llama el directorio JumpStart que se va a utilizar? Cmo se llama el clster que desea establecer? Muestra los nombres de los nodos del clster que se pretenden incluir en la configuracin inicial del clster. (Si se trata de un clster de un solo clster, pulse Control+D).
Autenticacin de solicitudes para agregar nodos (slo clsteresde varios nodos) Direccin de red para el transporte del clster (slo clsteresde varios nodos)
Acepta la direccin de red predeterminada (172.16.0.0 )? En caso negativo, qu direccin de red privada desea utilizar? Acepta la mscara de red predeterminada? En caso negativo, cul es el nmero mximo de nodos, redes privadas y clsteres de zona que pretende configurar en el clster? . .
Qu mscara de red desea usar? Elija uno de los valorescalculados por scinstall o introduzca sus propios valores. Nmero mnimo de redes privadas (slo clsteresde varios nodos) Cables punto a punto (slo clsteresde dos nodos) Conmutadores de clster (slo clsteresde varios nodos) Cables y adaptadores para el transporte del clster (slo clsteresde varios nodos) (Slo adaptadoresVLAN) Nombre del conmutador de transporte, si se utiliza uno: Valores predeterminados: switch1 y switch2 Nombre del primer nodo: Utiliza conmutadores este clster? Debera usarse este clster con, al menos, dos redes privadas?
S | No
S | No
Primero
Segundo
Primero Nombre del adaptador de transporte: Se trata de un adaptador de transporte de clster dedicado? (Responda No si utiliza adaptadores VLAN etiquetados). En caso de haber respondido negativamente, cul es el ID de VLAN de este adaptador? S | No
Segundo
S | No
110
A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Especifiquela informacin para cada nodo adicional (slo clsteres de varios nodos) Nombre del nodo: Primero Nombre del adaptador de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? Sistema de archivos de dispositivos globales Especifiqueesta informacin para cada nodo Desea utilizar el nombre predeterminado del sistema de archivos de dispositivos globales (/globaldevices )? En caso de haber respondido negativamente, desea utilizar un sistema de archivos existente? S | No S | No S | No S | No Segundo S | No S | No
S | No En caso negativo, desea crear un sistema de archivos nuevo en una particin sin utilizar? Cul es el nombre del sistema de archivos? Aislamiento global Desea inhabilitar el aislamiento global? Responda No a menos que el sistema de almacenamiento compartido no admita reservasde SCSI o si desea que accedan al sistema de almacenamiento compartido sistemas externos al clster. Configuracin del qurum Desea inhabilitar la seleccin automtica de dispositivos del qurum? (Responda S si algn sistema de almacenamiento compartido no cumpliera (slo clsteres de los requisitospara ser un dispositivodel qurum o si desea configurarun dos nodos) servidor de qurum o un dispositivo NAS de Network Appliance como dispositivo del qurum). S | No S | No
S | No
S | No
111
La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Configure el servidor de instalacin de JumpStart. Asegrese de que el servidor de instalacin de JumpStart cumpla los siguientes requisitos:
El servidor de instalacin se encuentra en la misma subred que los nodos del clster o en el servidor de inicio de Solaris de la subred que utilizan los nodos. El servidor de instalacin no es un nodo del clster. El servidor de instalacin instala una versin del SO Solaris compatible con el software Oracle Solaris Cluster. Existe un directorio JumpStart personalizado para la instalacin del software Oracle Solaris Cluster. Este directorio dir_jumpstart debe cumplir los siguientes requisitos:
Contener una copia de la utilidad check. Ser exportado mediante NFS para que lo lea el servidor de instalacin de JumpStart.
Cada nuevo nodo del clster se configura como un cliente de la instalacin personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalacin de Oracle Solaris Cluster.
Siga las instrucciones correspondientes a su plataforma de software y su versin de SO para configurar el servidor de instalacin de JumpStart. Consulte Creacin de un servidor de perfiles para sistemas conectados en red de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalacionesavanzadas. Consulte tambin las pginas de comando man setup_install_server(1M) add_install_client (1M).
2
Si instala un nodo nuevo en un clster existente, agrguelo a la lista de nodos de clster autorizados. a. Pase a otro nodo activo del clster e inicie la utilidad clsetup . b. Use la utilidad clsetup para agregar el nombre del nodo nuevo a la lista de nodos de clster autorizados. Para obtener ms informacin, consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster.
112
En un nodo de clster u otra mquina de la misma plataforma de servidor, instale el SO Solaris y los parches necesarios si an no lo ha hecho. Si el software de Solaris ya est instalado en el servidor, debe comprobar que la instalacin de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener ms informacin sobre cmo instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster. Siga los procedimientos descritos en Cmo instalar el software de Solaris en la pgina 70.
(Opcional) SPA R C :Instale el software Sun Logical Domains (LDoms)y cree los dominios si todava no lo ha hecho. Siga los procedimientos descritos en SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76.
Instale el software Oracle Solaris Cluster y los parches necesarios en el sistema instalado si todava no lo ha hecho. Siga los procedimientos descritos en Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.
Habilite el inicio automtico del daemon de contenedor de agentes comn al iniciar el sistema.
machine# cacaoadm enable
Realice este paso independientemente de si est utilizando un servicio de nombres. Consulte la lista de componentes de Oracle Solaris Cluster cuyas direcciones IP debe agregar en Direcciones IP de red pblica en la pgina 27.
8
En el sistema instalado, restablezca Oracle Java Web Console a su estado inicial sin configurar. El comando especificado ms abajo elimina la informacin de la configuracin de la consola web. Parte de esta informacin de configuracin es especfica del sistema instalado. Debe eliminar esta informacin antes de crear el archivo de almacenamiento flash. De lo contrario, la informacin de configuracin transferida al nodo del clster podra impedir que la consola web se iniciara o que interactuara correctamente con el nodo.
# /usr/share/webconsole/private/bin/wcremove -i console
Una vez instale la consola web no configurada en el nodo del clster y la inicie por primera vez, sta ejecutar automticamente su configuracin inicial y utilizar la informacin del nodo del clster.
Captulo 3 Establecimien to del cls ter global 113
Para obtener ms informacin acerca del comando wcremove,consulte Oracle Java Web Console User Identity de System Administration Guide: Basic Administration .
9
Cree el archivo de almacenamiento flash del sistema instalado. Siga los procedimientos que se explican en el Captulo 3, Creacin de contenedores Solaris Flash (tareas) de Gua de instalacin de Solaris 10 10/09: contenedoresFlash de Solaris (creacin e instalacin).
machine# flarcreate -n name archive
-n name Nombre para el archivo de almacenamiento flash. archivo Nombre de archivo para el archivo de almacenamiento flash, con la ruta completa. Como norma general, el nombre del archivo debe terminar en .flar .
10
Asegrese de que el archivo de almacenamiento se exporte mediante N FSpara que el servidor de instalacin de JumpStart lo lea. Consulte el Captulo 4, Managing Network File Systems (Overview) de System Administration Guide: Network Servicespara obtener ms informacin acerca del uso automtico de archivos compartidos. Consulte, adems, las pginas de comando man share(1M) y dfstab (4).
11 12
Convirtase en superusuario en el servidor de instalacin de JumpStart. Inicie la utilidad scinstall (1M) desde el servidor de instalacin de JumpStart. En la ruta de medios, sustituya arch por sparc o x86 y ver por 10 en el caso de Solaris 10.
installserver# cd /cdrom/cdrom0Solaris_ arch /Product/sun_cluster/ \ Solaris_ ver/Tools/ installserver# ./scinstall
Seleccione el elemento de men Configurar un clster para que se le aplique JumpStart desde este servidor de instalacin. Esta opcin se utiliza para configurar las secuencias de comandos de finalizacin personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalizacin para instalar el software Oracle Solaris Cluster.
*** Main M enu *** Please select from one of the following (*) options: server
* 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install 3) Manage a dual-partition upgrade
114 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
4) Upgrade this cluster node * 5) Print release information for this cluster * ?) Help with menu options * q) Quit Option: 14 2
node
Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. El comando scinstall almacena la informacin de configuracin y copia el archivo class predeterminado autoscinstall.class en el directorio /dir_jumpstart/autoscinstall.d/3.2/ . Este archivo es parecido al del siguiente ejemplo.
install_type system_type partitioning filesys filesys filesys filesys cluster package initial_install standalone explicit rootdisk.s0 rootdisk.s1 rootdisk.s3 rootdisk.s7 S U N W C user S U N W m an
15
Si fuera necesario, realice ajustes en el archivo autoscinstall.class JumpStart de modo que instale el archivo de almacenamiento flash.
para configurar
a. Modifique las entradas segn sea necesario para que coincidan con la configuracin que realiz cuando instal el SO Solaris en la mquina del archivo de almacenamiento flash o cuando ejecut la utilidad scinstall . Por ejemplo, si asign el segmento 4 al sistema de archivos de dispositivos globales y especific a scinstall que el nombre del sistema de archivos es /gdevs, tendra que cambiar la entrada /globaldevices del archivo autoscinstall.class de la siguiente manera:
filesys rootdisk.s4 512 /gdevs
install_type system_type
initial_install standalone
install_type archive_location
flash_install ubicacin_tipo_recuperacin
Consulte la palabra clave archive_location en Palabra clave archive_location de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas para obtener informacin acerca de los valores vlidos para tipo_recuperaciny ubicacin cuando se utilizan con la palabra clave archive_location .
Captulo 3 Establecimien to del cls ter global 115
c. Suprima todas las entradas que pudieran instalar un paquete especfico, como las que aparecen a continuacin.
cluster package S U N W C user S U N W m an add add
d. Si desea utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, elimine la entrada filesys en la particin /globaldevices . e. Si su configuracin tuviera requisitos del software de Solaris adicionales, modifique el archivo autoscinstall.class segn corresponda. El archivo autoscinstall.class (SU N W C user ). instala el grupo de software de usuario final de Solaris
f. Si instala el grupo de software de Solaris de usuario final (S U N W C u ser ), agregue el archivo autoscinstall.class a cualquier otro paquete de Solaris que pudiera necesitar. En la tabla que aparece a continuacin, se muestran los paquetes de Solaris necesarios para que algunas funciones de Oracle Solaris Cluster sean compatibles. Estos paquetes no se incluyen en el grupo de software de usuario final de Solaris. Consulte Consideraciones sobre los grupos de software de Solaris en la pgina 18 para obtener ms informacin.
Funcin Paquetes de software de Solaris obligatorios
Edite el archivo autoscinstall.class directamente. Estos cambios se aplican a todos los nodos de todos los clsteres que utilicen este directorio JumpStart personalizado. Actualice el archivo rules para que apunte a otros perfiles y, a continuacin, ejecute la utilidad check para validar el archivo rules .
Siempre que el perfil de instalacin del SO Solaris cumpla los requisitos mnimos de asignacin de sistema de archivos de Oracle Solaris Cluster, el software Oracle Solaris Cluster no pondr ninguna restriccin a la realizacin de otros cambios en el perfil de instalacin. Consulte Particiones de disco del sistema en la pgina 19 para conocer las directrices relativas a las particiones, as como los requisitos para que el software Oracle Solaris Cluster sea compatible. Para obtener ms informacin acerca de los perfiles de JumpStart, consulte el Captulo 3, Preparacin de instalaciones JumpStart personalizadas (tareas) de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalacionesavanzadas.
116 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
16
Para efectuar cualquier otra tarea posterior a la instalacin, configure su propia secuencia de comandos finish. Su propia secuencia de comandos de finalizacin se ejecuta despus de la secuencia de comandos de finalizacin estndar instalada por el comando scinstall . Consulte la informacin sobre la preparacin de instalaciones mediante JumpStart personalizadas en el Captulo 3, Preparacin de instalaciones JumpStart personalizadas (tareas) de Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas para obtener informacin acerca de la creacin de secuencias de comandos de finalizacin de JumpStart. a. Asegrese de que el archivo class instale los paquetes de dependencia de Solaris. Consulte el Paso 15. b. D el nombre de finish a su secuencia de comandos de finalizacin. c. Realice las modificaciones pertinentes para que la secuencia de comandos finish realice las tareas posteriores a la instalacin que desee. d. Copie la secuencia de comandos finish en cada directorio jumpstart_dir/autoscinstall.d/nodes/ nodo. Cree un directorio nodo para cada nodo del clster. Tambin puede utilizar esta convencin de nomenclatura para crear vnculos simblicos en una secuencia de comandos finish compartida.
17 18
Salga del servidor de instalacin de JumpStart. Si utiliza conmutadores en la interconexin privada del nuevo clster, asegrese de que el Protocolo de deteccin de elementos prximos (NDP)est inhabilitado. Siga los procedimientos incluidos en la documentacin de los conmutadores para determinar si NDP est habilitado o si debe inhabilitar este protocolo. Durante la configuracin del clster, el software comprueba que no haya trfico en la interconexin privada. Si NDP enva paquetes a un adaptador privado cuando se est comprobando si hay trfico en la interconexin privada, el software presupondr que la interconexin no es privada y se interrumpir la configuracin del clster. Por lo tanto, NDP debe inhabilitarse durante la creacin del clster. Una vez establecido el clster, puede volver a habilitar NDP en los conmutadores de interconexin privada si desea utilizar esta funcin.
117
19
Si utiliza una consola de administracin para el clster, abra una pantalla de la consola para cada nodo del clster.
S i el software Cluster Control Panel (CC P )se encuentra instalado y configurado en la consola de administracin, use la utilidad cconsole(1M) para que se muestren las pantallas individuales de la consola. Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
La utilidad cconsole abre, adems, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.
S i no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.
20
21
E n sistemas basados en x86, haga lo siguiente: a. Pulse cualquier tecla para comenzar con la secuencia de inicio.
Press any key to reboot. keystroke
b. Cuando aparezca la pantalla de informacin de la B IO S,pulse Esc+2 o la tecla F2 inmediatamen te. Cuando la secuencia de inicializacin finalice, aparecer la pantalla de la utilidad de configuracin de la BIOS. c. En la barra de mens de la utilidad de configuracin de la B IO S,vaya al elemento de men Boot (Arranque). Aparece la lista de dispositivos de inicio.
118
d. Vaya al IB Ade la lista que est conectado a la misma red que el servidor de instalacin PX E de JumpStart y colquelo en primer lugar en el orden de inicio. El nmero ms bajo de los que aparecen a la derecha de las opciones de inicio IBA corresponde al nmero de puerto Ethernet ms bajo. El nmero ms alto de los que aparecen a la derecha de las opciones de inicio IBA corresponde al nmero de puerto Ethernet ms alto. e. Guarde el cambio y salga de la BIOS. La secuencia de inicio vuelve a comenzar. Tras otros procesos, se muestra el men GRUB. f. Seleccione inmediatamente la entrada de JumpStart de Solaris y pulse Intro.
Nota Si la entrada de JumpStart de Solaris es la nica de la lista, tambin puede
esperar hasta que se agote el tiempo de espera de la pantalla de seleccin. Si no responde en 30 segundos, el sistema contina automticamente con la secuencia de inicio.
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line.
| | |
Despus de otros procesos, aparece el men de tipo de instalacin. g. En este men, escriba inmediatamente el nmero del men correspondiente a JumpStart personalizad o.
Nota Si no escribe el nmero correspondiente a JumpStart personalizado antes de
que finalice el periodo de espera de 30 segundos, el sistema inicia automticamente la instalacin interactiva de Solaris.
Select the type of installation 1 2 3 4 5 6 2 you want to perform:
Solaris Interactive Custom JumpStart Solaris Interactive Text (Desktop session) Solaris Interactive Text (Console session) Apply driver updates Single user shell
JumpStart instala el SO de Solaris y el software Oracle Solaris Cluster en todos los nodos. Una vez finalizada correctamente la instalacin, todos los nodos se encuentran instalados completamente como nodos nuevos del clster. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N. h. Cuando vuelva a aparecer la pantalla de la B IO S,pulse inmediatamente Esc+2 o la tecla F2.
Nota Si no interrumpe la BIOS en ese momento, volver automticamente al men
de tipo de instalacin. En ese men, si no se introduce una opcin en 30 segundos, el sistema inicia automticamente una instalacin interactiva. Despus de otros procesos, aparece la utilidad de configuracin de la BIOS. i. En la barra de mens, vaya al men Boot (Arranque). Aparece la lista de dispositivos de inicio. j. Vaya a la entrada Disco duro y vuelva a colocarlo en primer lugar en el orden de inicio. k. Guarde el cambio y salga de la BIOS. La secuencia de inicio vuelve a comenzar. No se necesita ms interaccin con el men GRUB para finalizar el inicio en el modo de clster.
22
Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default
23
Si instala un nodo nuevo en un clster existente, cree puntos de montaje en el nuevo nodo para todos los sistemas de archivos de clster existentes. a. Muestre los nombres de todos los sistemas de archivos del clster desde un nodo de clster activo.
phys-schost# m ount | grep global | egrep -v n od e@ | a w k {print $1}
b. En el nodo que ha agregado al clster, cree un punto de montaje para cada sistema de archivos del clster.
phys-schost-new# mkdir -p mountpoint
120 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1 , ejecute mkdir -p /global/dg-schost-1 en el nodo que est agregando al clster.
Nota Los puntos de montaje se activan tras el reinicio del clster en el Paso 28.
c. Si Veritas Volume Manager (V xV M est ) instalado en algn nodo de los que ya existen en el clster, consulte el nmero vxio de cada nodo con V xV Minstalado.
phys-schost# grep vxio /etc/name_to_major vxio NNN
Asegrese de que se utilice el mismo nmero vxio en todos los nodos con VxVM instalado. Asegrese de que el uso del nmero vxio est disponible para todos los nodos que no tengan VxVM instalado. Si el nmero vxio ya se est utilizando en un nodo que no tiene VxVM instalado, libere el nmero en ese nodo. Cambie la entrada /etc/name_to_major para utilizar un nmero distinto.
24
(Opcional) Si desea utilizar la reconfiguracin dinmica en un servidor Sun Enterprise 10000 agregue la entrada que aparece a continuacin al archivo /etc/system de cada nodo del clster.
set kernel_cage_enable=1
Esta entrada se aplicar una vez reiniciado el sistema. Consulte Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de reconfiguracin dinmica en una configuracin de Oracle Solaris Cluster. Consulte la documentacin del servidor para obtener ms informacin sobre la reconfiguracin dinmica.
25
Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para NFS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs
121
Nota No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de
alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
26
Si va a utilizar uno de los adaptadores que se especifican a continuacin para la interconexin de clster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
Adaptador Entrada
ce ipge ixge
x86: Establezca el archivo de inicio predeterminado. La configuracin de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesin.
grub edit> kernel /platform/i86pc/multiboot kmdb
28
Si ha llevado a cabo una tarea que requiere un reinicio del clster, siga los pasos que se describen ms abajo para hacerlo. Estas son algunas de las tareas que requieren un reinicio:
la adicin de un nodo nuevo a un clster existente la instalacin de parches que requieren un reinicio del nodo o del clster
122
Nota No reinicie el primer nodo instalado en el clster hasta despus de que el clster se
haya cerrado. Hasta que se inhabilite el modo de instalacin del clster, slo el primer nodo instalado (el que estableci el clster) cuenta con un voto del qurum. Si un clster establecido que est an en el modo de instalacin no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del clster no pueden obtener qurum. En tal caso, el clster completo se cerrara. Los nodos del clster permanecen en el modo de instalacin hasta que ejecute por primera vez el comando clsetup . Este comando se ejecuta durante el procedimiento Cmo configurar dispositivos del qurum en la pgina 149. c. Reinicie todos los nodos del clster.
E n sistemas basados en x86, haga lo siguiente: Cuando aparezca el men GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |
Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . La utilidad scinstall instala y configura todos los nodos del clster y reinicia el clster. El clster se establecer cuando todos los nodos se hayan iniciado satisfactoriamente en l. La salida de la instalacin de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
Captulo 3 Establecimien to del cls ter global 123
29
(Opcional) Si no ha llevado a cabo el Paso 28 para reiniciar los nodos, inicie el servidor web de Oracle Java Web Console manualmente en cada nodo.
phys-schost# smcwebserver start
Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status
(Opcional) Habilite en cada nodo el reinicio automtico del mismo en caso de que de todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled
-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . Pasos siguientes node enabled
Si ha agregado un nodo a un clster de dos nodos, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya al siguiente procedimiento que corresponda:
124
Si ha instalado un nodo de varios clsteres y ha decidido configurar el qurum automticamente, la configuracin posterior a la instalacin finaliza aqu. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster de varios nodos y ha rechazado la configuracin automtica del qurum, lleve a cabo la configuracin posterior a la instalacin. Vaya a Cmo configurar dispositivos del qurum en la pgina 149. Si ha agregado un nodo nuevo a un clster existente que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. Si ha agregado un nodo nuevo a un clster existente que no utiliza un dispositivo del qurum, compruebe el estado del clster. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Si ha instalado un clster con un nico nodo, ya se ha completado el establecimiento del clster. Vaya a Creacin de sistemas de archivos del clster en la pgina 217 para instalar el software de administracin de volmenes y configurar el clster.
Errores ms frecuentes
Opcin scinstall inhabilitada: si la opcin JumpStart del comando scinstall no presenta un asterisco delante significa que est inhabilitada. Esta condicin indica que la configuracin de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situacin, en primer lugar salga de la utilidad scinstall . Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuracin de JumpStart y, a continuacin, reinicie la utilidad scinstall .
Antes de empezar
Asegrese de que el adaptador de host est instalado en el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual. Verifique que todas las interconexiones del clster sean compatibles con el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual. Asegrese de que los sistemas de almacenamiento adicional estn instalados. Consulte
el manual que correspo nda de la Colecci n de administr acin del hardware de Oracle Solaris Cluster 3.3.
Si utiliza Cluster Control Panel (CC P),actualice los archivos de configuracin en la consola de administracin. a. Aada el nombre del nodo que va a agregar a la entrada del clster en el archivo /etc/clusters . b. Agregue a los archivos /etc/serialports una entrada con el nombre del nodo nuevo, el nombre de host del dispositivo de acceso a la consola del nodo y el nmero de puerto.
Agregue el nombre del nodo nuevo a la lista de nodos autorizados del clster. a. Convirtase en superusuario en cualquier nodo. b. Inicie la utilidad clsetup .
phys-schost# clsetup
Aparece el men principal. c. Seleccione el elemento de men Nuevos nodos. d. Seleccione el elemento de men Especificarel nombre de una mquina que tiene permiso para agregarse a s misma. e. Siga las indicaciones para agregar el nombre del nodo a la lista de equipos conocidos. La utilidad clsetup muestra el mensaje Com ando completado satisfactoriamente la tarea se ha completado sin errores. f. Salga de la utilidad clsetup .
3
si
Si va a agregar un nodo a un clster de un solo nodo, asegrese de que existan dos interconexiones de clster comprobando la configuracin de interconexin.
phys-schost# clinterconnect show
Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.
S i aparece informacin de la configuracin de dos cables o adaptadores en la salida, contine con el Paso 4. S i no aparece informacin de configuracin de cables ni de adaptadores, o aparece informacin de la configuracin de solo un cable o adaptador, configure nuevas interconexiones del clster. a. Inicie la utilidad clsetup en un nodo.
phys-schost# clsetup
b. Seleccione el elemento de men Interconexin del clster. c. Seleccione el elemento de men Agregar un cable de transporte. Siga las instrucciones para especificarel nombre del nodo que se va a agregar al clster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte. d. Si fuera necesario, repita el Paso c para configurar una segunda interconexin del clster. e. Cuando termine, salga de la utilidad clsetup . f. Verifique que el clster tenga ya dos interconexiones del clster configuradas.
phys-schost# clinterconnect show
La salida del comando debera mostrar informacin de la configuracin de al menos dos interconexiones del clster.
4
Asegrese de que la configuracin de la red privada admita los nodos y las redes privadas que va a agregar. a. Haga que se muestre el nmero mximo de nodos, de redes privadas y as como de clsteres de zona admitido por la configuracin de red privada actual.
phys-schost# cluster show-netprops
b. Determine si la configuracin de red privada actual puede admitir el nuevo nmero de nodos, incluidas las zonas no globales y las redes privadas.
S i el intervalo de direcciones IP actual es suficiente, ya est listo para instalar el nuevo nodo. Vaya a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134. S i el intervalo de direcciones IP actual no es suficiente, vuelva a configurar el intervalo de direcciones IP privadas. Vaya a Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128. Debe cerrar el clster para cambiar el intervalo de direcciones
inhabilitacin de todos los recursos del clster y, por ltimo, el reinicio en el modo sin clster antes de reconfigurar el intervalo de direcciones IP.
Pasos siguientes
Configure el software Oracle Solaris Cluster en los nuevos nodos del clster. Vaya a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 o a Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142.
el nmero de nodos o de zonas no globales el nmero mnimo de redes privadas El nmero de clsteres de zona
Tambin puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.
Nota Para llevar a cabo este procedimiento es necesario cerrar todo el clster. Si necesita
cambiar nicamente la mscara de red para, por ejemplo, proporcionar compatibilidad con los clsteres de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del clster global que se est ejecutando en el modo de clster para especificar el nmero de clsteres de zona programado:
phys-schost# cluster set-netprops num_zoneclusters=N
Asegrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario est habilitado para todos los nodos del clster. Convirtase en superusuario en un nodo de clster. Inicie la utilidad clsetup en un nodo.
# clsetup
Establezca fuera de lnea cada grupo de recursos. Si el nodo contiene zonas no globales, todos los grupos de recursos de las zonas se establecern fuera de lnea. a. Escriba el nmero correspondiente a la opcin Grupos de recursos y pulse la tecla Intro. Aparece el men de grupos de recursos. b. Escriba el nmero correspondiente a la opcin Poner en lnea/fuera de lnea o conmutar un grupo de recursos y pulse la tecla Intro. c. Siga las indicaciones para establecer todos los grupos de recursos fuera de lnea y en el estado no administrado. d. Cuando todos los grupos de recursos estn fuera de lnea, escriba q para volver al men de grupo de recursos.
Inhabilite todos los recursos del clster. a. Escriba el nmero correspondiente a la opcin Habilitar/inhabilitar un recurso y pulse la tecla Intro. b. Seleccione un recurso para inhabilitarlo y siga las indicaciones. c. Repita el paso anterior para cada recurso que desee inhabilitar. d. Cuando se hayan inhabilitado todos los grupos de recursos, escriba q para volver al men de grupo de recursos.
5 6
Salga de la utilidad clsetup . Asegrese de que todos los recursos de todos los nodos se encuentren Fuera de lnea y de que todos los grupos de recursos presenten el estado N o administrado.
# cluster status -t resource,resourcegroup
-t recurso resourcegroup
7
Limita la salida al objeto de clster especificado. Especifica los recursos. Especifica los grupos de recursos.
-g
-y
E n sistemas basados en x86, ejecute los siguientes comandos: a. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |
Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . b. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu. | | |
c. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time ex its. ] grub edit> kernel /platform/i86pc/multiboot -x
d. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.| | |
tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo.
9
Inicie la utilidad clsetup desde un nodo. Cuando se ejecuta en un modo que no sea de clster, la utilidad clsetup muestra el men principal para operaciones de un modo que no sea de clster. Escriba el nmero correspondiente a la opcin de cambiar el rango de direcciones IP y pulse la tecla Intro. La utilidad clsetup muestra la configuracin de red privada actual; a continuacin, pregunta si desea modificar esta configuracin. Para cambiar la direccin IP de red privada o el intervalo de direcciones de red IP, escriba yes y pulse la tecla Intro. La utilidad clsetup muestra la direccin IP de red privada, 172.16.0.0 y pregunta si desea aceptarla de forma predeterminada. Cambie o acepte la direccin IP de red privada.
10
11
12
Para aceptar la direccin IP de red privada predeterminada y cambiar el rango de direcciones IP, escriba yes y pulse la tecla Intro. La utilidad clsetup pregunta si desea aceptar la mscara de red predeterminada. Vaya al siguiente paso para escribir su respuesta.
Para cambiar la direccin IP de red privada predeterminada, siga los subpasos descritos a continuacin. a. Escribano como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar la direccin predeterminada; a continuacin, pulse la tecla Intro. La utilidad clsetup solicita la nueva direccin IP de red privada. b. Escriba la direccin IP nueva y pulse la tecla Intro. La utilidad clsetup muestra la mscara de red predeterminada; a continuacin, pregunta si desea aceptar la mscara de red predeterminada.
Modifique o acepte el rango de direcciones IP de red privada predeterminado. La mscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un mximo de 64 nodos, 12 clsteres de zona y 10 redes privadas en el clster.
13
Para aceptar el rango de direcciones IP predeterminado, escriba yes y pulse la tecla Intro. A continuacin, vaya al siguiente paso. Para cambiar el rango de direcciones IP, realice los subpasos siguientes. a. Escribano como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar el rango de direcciones predeterminado; a continuacin, pulse la tecla Intro. Si rechaza la mscara de red predeterminada, la utilidad clsetup solicita el nmero de nodos, redes privadas y clsteres de zona que tiene previsto configurar en el clster. b. Especifique el nmero de nodos, redes privadas y clsteres de zona que tiene previsto configurar en el clster. A partir de estas cantidades, la utilidad clsetup calcula dos mscaras de red como propuesta:
La primera mscara de red es la mnima para admitir el nmero de nodos, redes privadas y clsteres de zona que haya especificado. La segunda mscara de red admite el doble de nodos, redes privadas y clsteres de zona que haya especificado para asumir un posible crecimiento en el futuro.
c. Especifique una de las mscaras de red, u otra diferente, que admita el nmero previsto de nodos, redes privadas y clsteres de zona.
14
Escriba yes como respuesta a la pregunta de la utilidad clsetup sobre si desea continuar con la actualizacin.
15 16
Cuando haya finalizado, salga de la utilidad clsetup . Vuelva a reiniciar cada nodo en el clster. a. Cierre todos los nodos.
# shutdown -g0 -y
E n sistemas basados en x86, haga lo siguiente: Cuando aparezca el men GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.95 (631K lower / 2095488K upper memory) + -------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + -------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |
Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration .
17
Vuelva a habilitar todos los recursos inhabilitados. a. Escriba el nmero correspondiente a la opcin Grupos de recursos y pulse la tecla Intro. Aparece el men de grupos de recursos. b. Escriba el nmero correspondiente a la opcin Habilitar/inhabilitar un recurso y pulse la tecla Intro. c. Seleccione un recurso para habilitarlo y siga las indicaciones. d. Repita el procedimiento para cada recurso inhabilitado.
e. Cuando se hayan habilitado de nuevo todos los grupos de recursos, escriba q para volver al men de grupo de recursos.
19
Vuelva a colocar en lnea cada grupo de recursos. Si el nodo contiene zonas no globales, establezca tambin en lnea los grupos de recursos que se encuentren en esas zonas. a. Escriba el nmero correspondiente a la opcin Poner en lnea/fuera de lnea o conmutar un grupo de recursos y pulse la tecla Intro. b. Siga las indicaciones para establecer el grupo de recursos en el estado administrado y, a continuacin, pngalo en lnea.
20
Salga de la utilidad clsetup cuando todos los grupos de recursos vuelvan a estar en lnea. Escriba q para salir de cada submen o pulse Ctrl-C. Para agregar un nodo a un clster existente, utilice uno de los siguientes procedimientos:
Pasos siguientes
Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall ) en la pgina 134 Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107 Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (XML) en la pgina 142
Para crear una zona no global en un nodo de clster, consulte Configuracin de una zona no global en un nodo del clster global en la pgina 223.
Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (scinstall )
Realice este procedimiento para agregar un nodo nuevo a un clster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.
. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalacin, consulte la pgina de comando man scinstall (1M). Asegrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall . Para obtener informacin sobre cmo ejecutar el programa installer de desde una secuencia de comandos de instalacin, consulte Captulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Antes de empezar
Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software y los parches de Oracle Solaris Cluster estn instalados en el nodo. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Asegrese de que el clster est preparado para la adicin del nuevo nodo. Consulte Cmo preparar el clster para nodos de clster global adicionales en la pgina 125. Decida cul de los modos, tpico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalacin tpica del software Oracle Solaris Cluster, scinstall utiliza automticamente los siguientes valores predeterminados de configuracin.
Componen te Valor predeterminado
switch1 y switch2
Rellene una de las hojas de trabajo para la planificacin de la configuracin de las que aparecen ms abajo. Puede obtener directrices para la planificacin en Planificacin del sistema operativo Oracle Solaris en la pgina 16 y Planificacin del entorno de Oracle Solaris Cluster en la pgina 26.
Plantilla de modo tpico: si va utilizar el modo tpico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
Respuesta
Componen te
Descripcin/Ejemplo
Nodo patrocinador
Cul es el nombre del nodo patrocinador? Elija un nodo activo del clster.
Nombre del clster Comprobacin Descubrimiento automtico de transporte del clster Cables punto a punto
Cmo se llama el clster al que desea unir el nodo? Desea ejecutar la utilidad de validacin cluster check? Desea utilizar el descubrimiento automtico para configurar el transporte del clster? En caso negativo, proporcione la siguiente informacin adicional: El nodo que va a agregar al clster lo convierte en un clster de dos nodos? Utiliza conmutadores el clster? S | No S | No S | No S | No Primero Primero Nombres de los adaptadores de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Desea utilizar el nombre de puerto predeterminado para los conmutadores de transporte? En caso negativo, cul es el nombre de puerto que desea utilizar? S | No S | No Segundo Segundo
En caso de que s se utilicen, como se llaman los dos conmutadores? Valores predeterminados: switch1 y switch2
Reinicio automtico
S | No
Plantilla del modo personalizado : si va a utilizar el modo personalizado y a personalizar los datos de configuracin, rellene la siguiente plantilla.
Componen te
Descripcin/Ejemplo
Respuesta
Nodo patrocinador
Cul es el nombre del nodo patrocinador? Elija un nodo activo del clster.
Nombre del clster Comprobacin Descubrimiento automtico de transporte del clster Cables punto a punto
Cmo se llama el clster al que desea unir el nodo? Desea ejecutar la utilidad de validacin cluster check? Desea utilizar el descubrimiento automtico para configurar el transporte del clster? En caso negativo, proporcione la siguiente informacin adicional: El nodo que va a agregar al clster lo convierte en un clster de dos nodos? Utiliza conmutadores el clster? S | No S | No
Nombre del conmutador de transporte, si se utiliza uno: Valores predeterminados: switch1 y switch2
Nombre del adaptador de transporte: A qu se conecta cada adaptador de transporte (a un conmutador o a otro adaptador)? Valores predeterminados de conmutacin: switch1 y switch2 Si utiliza un conmutador de transporte, desea utilizar el nombre de puerto predeterminado? En caso negativo, cul es el nombre de puerto que desea utilizar? S | No S | No
Cmo se llama el sistema de archivos de dispositivos globales? Valor predeterminado: /globaldevices Desea que scinstall reinicie automticamente el nodo tras la instalacin? S | No
La utilidad scinstall interactiva completa automticamente el texto que est escribiendo. Por lo tanto, no pulse la tecla Intro ms de una vez si la siguiente pantalla de men no aparece inmediatamente. A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al men principal. Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Escriba el nmero correspondiente a la opcin Create a New Cluster or Add a Cluster Node (Crear un clster o agregar un nodo de clster) y pulse la tecla Intro.
*** Main Menu *** Please select * 1) 2) 3) 4) * 5) from one of the following (*) options: server
Create a new cluster or add a cluster node Configure a cluster to be JumpStarted from this install Manage a dual-partition upgrade Upgrade this cluster node Print release information for this cluster node
Escriba el nmero correspondiente a la opcin Agregar esta mquina como nodo de un clster existente y pulse la tecla Intro. Siga las indicaciones en el men para proporcionar respuestas de la hoja de trabajo para la planificacin de la configuracin. La utilidad scinstall configura el nodo y lo inicia en el clster. Extraiga el D VD-R O Mde la unidad de D VD-R OM . a. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. b. Expulse el D VD-R O M .
phys-schost# eject cdrom
Repita este procedimiento en el resto de los nodos que vaya a agregar al clster hasta que todos los nodos adicionales estn configurados por completo. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default
Evite que se unan al clster otros nodos desde un miembro activo del clster.
phys-schost# claccess deny-all
Tambin puede usar la utilidad clsetup . Consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos.
10
Desde un nodo, compruebe que todos los nodos se hayan unido al clster.
phys-schost# clnode status
12
(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled
-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . node enabled
13
Si tiene intencin de utilizar Oracle Solaris Cluster H A para N FS(H A para N FS)en un sistema de archivos local de alta disponibilidad, asegrese de que el sistema de archivos de bucle invertido (LO FS )est inhabilitado. Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clster.
exclude:lofs
alta disponibilidad y automountd se est ejecutando. LOFS puede provocar problemas de conmutacin en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuracin. Sin embargo, si configura zonas no globales en el clster, debe habilitar LOFS en todos los nodos del clster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las dems soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS. Inhabilite el daemon automountd. Excluya de la asignacin de montaje automtico todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opcin permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener informacin sobre los sistemas de archivos de bucle invertido.
Ejemplo 33
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 P S T 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices Adding Adding Adding Adding Adding file system . . . done
node "phys-schost-3 " to the cluster configuration . . . done adapter "qfe2" to the cluster configuration . . . done adapter "qfe3" to the cluster configuration . . . done cable to the cluster configuration . . . done cable to the cluster configuration . . . done
Copying the config from "phys-schost-1 " . . . done Copying the postconfig file from "phys-schost-1 " if it ex ists . . . done Copying the C o m m o n Agent Container keys from "phys-schost-1 " . . . done Setting the node ID for "phys-schost-3 " . . . done (id=1) Setting the major number for the "did" driver . . . Obtaining the major number for the "did" driver from "phys-schost-1 " . . . done "did" driver major number set to 300 Checking for global devices Updating vfstab . . . done global file system . . . done
Verifying that N T P is configured . . . done Initializing N T P configuration . . . done Updating nsswitch.conf done Adding clusternode . . . to /etc/inet/hosts . . . done
entries
Configuring IP Multipathing groups in "/etc/hostname.<adapter> " files Updating "/etc/hostname.hme0 ". Verifying that power management is N O T configured . . . done Ensure that the E E P R O M parameter "local-mac-address? " is set to "true " . . . done The "local-mac-address? " parameter setting has been changed to "true ". Ensure network routing is disabled . . . done Updating file ("ntp.conf.cluster ") on node phys-schost-1 Updating file ("hosts ") on node phys-schost-1 . . . done Rebooting . . . Errores ms frecuentes . . . done
Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Si ha agregado un nodo a un clster existente que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
Pasos siguientes
Cmo configurar el software Oracle Solaris Cluster en nodos de clster global adicionales (X M L )
Lleve a cabo este procedimiento para configurar un nuevo nodo del clster mediante un archivo XML de configuracin del clster. El nodo nuevo puede ser un reflejo de un nodo de clster existente que ejecute el software Oracle Solaris Cluster 3.3. Mediante este procedimiento, se configuran los siguientes componentes del nodo:
Antes de empezar
Asegrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 para obtener informacin sobre cmo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clster, asegrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalacin del software Sun Logical Domains y creacin de dominios en la pgina 76. Asegrese de que los paquetes de software Oracle Solaris Cluster y los parches necesarios estn instalados en el nodo. Consulte Cmo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster en la pgina 78. Asegrese de que el clster est preparado para la adicin del nuevo nodo. Consulte Cmo preparar el clster para nodos de clster global adicionales en la pgina 125.
Asegrese de que el software Oracle Solaris Cluster no est configurado an en el nodo potencial que desee agregar a un clster. a. Convirtase en superusuario en el nodo potencial.
-n
S i el comando presenta errores, vaya al Paso 2. El software Oracle Solaris Cluster an no se ha configurado en el nodo. Puede agregar el nodo potencial al clster. S i el comando devuelve un nmero de ID de nodo, vaya al Paso c. El software Oracle Solaris Cluster ya est configurado en el nodo. Para poder agregar el nodo a un clster distinto, debe suprimir la informacin de configuracin del clster existente.
E n sistemas basados en x86, ejecute los siguientes comandos: i. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |
Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . ii. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ | | |
Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the
boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.
iii. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time ex its. ] grub edit> kernel /platform/i86pc/multiboot -x
iv. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.| | |
conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo. d. Anule la configuracin del software Oracle Solaris Cluster del nodo potencial.
phys-schost-new# /usr/cluster/bin/clnode 2 remove
Si va a crear reflejos de un nodo que ejecuta el software Oracle Solaris Cluster 3.3, cree un archivo X M Lde configuracin del clster. a. Convirtase en superusuario en el nodo del clster que desee reflejar. b. Exporte la informacin de configuracin del nodo existente a un archivo.
phys-schost# clnode export -o clconfigfile
clconfigfile Nombre del archivo XML de configuracin del clster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando crear. Para obtener ms informacin, consulte la pgina de comando man clnode (1CL). c. Copie el archivo X M Lde configuracin del clster en el nodo potencial que va a configurar como nodo nuevo del clster.
3 4
Convirtase en superusuario en el nodo potencial. Modifique el archivo X M Lde configuracin del clster segn sea necesario. a. Abra el archivo X M Lde configuracin del clster para editarlo.
Si va a crear reflejos de un nodo de clster existente, abra el archivo que cre con el comando clnode export. S i no va a crear reflejos de un nodo de clster existente, cree un archivo nuevo. Base el archivo en la jerarqua de elementos que se muestra en la pgina de comando man clconfiguration (5CL). Puede almacenar el archivo en cualquier directorio.
b. Modifique los valores de los elementos X M Lpara reflejar la configuracin de nodo que desea crear. Consulte la pgina de comando man clconfiguration(5CL) para obtener informacin detallada sobre la estructura y el contenido del archivo XML de configuracin del clster.
5
-n nodo_patrocinador Especificael nombre de un miembro del clster existente para que acte como patrocinador del nodo nuevo. -i clconfigfile Especificael nombre del archivo XML de configuracin del clster que se va a utilizar como fuente de entrada.
(Opcional) Habilite el reinicio automtico de nodos cuando todas las rutas de disco compartido supervisadas presenten errores. a. Habilite el reinicio automtico.
phys-schost# clnode set -p reboot_on_path_failure=enabled
-p Especifica la propiedad que se va a establecer. reboot_on_path_failure=enable Habilita el reinicio automtico del nodo en caso de producirse un error en las rutas de discos compartidos supervisados. b. Compruebe que el reinicio automtico tras un error de ruta de disco se encuentre habilitado.
phys-schost# clnode show === Cluster Nodes === Node Name: . . . reboot_on_path_failure: . . . Errores ms frecuentes node enabled
Configuracin incorrecta: si uno o varios nodos no se pueden incorporar al clster, o si se ha especificado informacin de configuracin incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuracin del clster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuacin, vuelva a realizar este procedimiento. Si ha agregado un nodo a un clster que utiliza un dispositivo del qurum, vaya a Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global en la pgina 146. De lo contrario, vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
Pasos siguientes
Cmo actualizar los dispositivos del qurum tras agregar un nodo a un clster global
Si ha agregado un nodo a un clster global, debe actualizar la informacin de configuracin de los dispositivos del qurum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de qurum o una combinacin de estos elementos. Para ello, quite todos los dispositivos del qurum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del qurum que todava desea utilizar. As, se registra el nodo nuevo con cada dispositivo del qurum, lo que permite
Los nuevos dispositivos SCSI del qurum que se configuren se establecern en las reservas SCSI-3.
Antes de empezar 1 2
Asegrese de haber completado la instalacin del software Oracle Solaris Cluster en el nodo que ha agregado. Convirtase en superusuario en un nodo de clster. Asegrese de que todos los nodos del clster estn en lnea.
phys-schost# cluster status -t node
Vea la configuracin de qurum actual. La salida del comando muestra todos los dispositivos del qurum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del qurum SCSI actual, d3.
4 5 phys-schost# clquorum lis t d3 . . .
Anote el nombre de los dispositivos del qurum que aparecen en la lista. Quite el dispositivo del qurum original. Lleve a cabo este paso con todos los dispositivos del qurum configurados.
phys-schost# clquorum remove devicename
nombre_dispositivo Especificael nombre del dispositivo del qurum. Compruebe que todos los dispositivos del qurum originales se hayan suprimido. Si los dispositivos del qurum se han borrado correctamente, ninguno de ellos aparece en la lista.
phys-schost# clquorum status
Compruebe en cada nodo que el comando cldevice populate haya finalizado su proceso antes de intentar agregar un dispositivo del qurum. El comando cldevice populate se ejecuta de forma remota en todos los nodos, a pesar de que se emite desde un solo nodo. Para determinar si ha concluido el procesamiento del comando cldevice populat e, ejecute el comando siguiente en todos los nodos del clster.
(Opcional) Agregue un dispositivo del qurum. Puede configurar el mismo dispositivo que se utiliz originalmente como dispositivo del qurum o seleccionar un nuevo dispositivo compartido para configurarlo. a. (Opcional) Si desea seleccionar un nuevo dispositivo compartido para configurarlo como dispositivo del qurum, visualice todos los dispositivos que el sistema comprueba. De lo contrario, vaya al Paso c.
phys-schost# cldevice list -v
b. Desde la salida, seleccione un dispositivo compartido para configurarlo como dispositivo del qurum. c. Configure el dispositivo compartido como dispositivo del qurum.
phys-schost# clquorum add -t type devicename
-t tipo Especificael tipo de dispositivo del qurum. Si no se especifica esta opcin, se utilizar el tipo predeterminado, es decir, shared_disk . d. Repita este procedimiento con todos los dispositivos del qurum que desee configurar. e. Verifique la nueva configuracin del qurum.
phys-schost# clquorum lis t Ejemplo 34
La salida debe mostrar todos los dispositivos del qurum y todos los nodos.
Actualizacinde los dispositi vos del qurum S C S Itras agregar un nodo a un clster de dos nodos
En el siguiente ejemplo se identifica el dispositivo del qurum SCSI original d2, se quita ese dispositivo del qurum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo del qurum SCSI y se verifica el nuevo dispositivo.
phys-schost# clquorum list
d2 phys-schost-1
phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status . . . --- Quorum Votes by Device --Device N am e ----------phys-schost# D ID Device ---------. . . d3 d3 . . . phys-schost# phys-schost# phys-schost# phys-schost# d3 phys-schost-1 phys-schost-2 Pasos siguientes Present ------Possible -------Status ------
cldevice list -v Full Device Path ---------------phys-schost-2:/dev/rdsk/c1t1d0 phys-schost-1:/dev/rdsk/c1t1d0 cldevice populate ps -ef - grep scgdevs clquorum add d3 clquorum list
Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
siguientes circunstancias:
Ha elegido la configuracin automtica del qurum durante la configuracin del software Oracle Solaris Cluster. Ha instalado un clster de un solo nodo. Ha agregado un nodo a un clster global existente y ya dispone de un nmero suficiente de votos del qurum asignados.
En estos casos, pase a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155.
Antes de empezar
Captulo 3 Establecimien to del cls ter global 149
150
te procedimiento para asignar los votos del qurum y, a continuacin, para quitar el clster del modo de instalacin.
Lleve a cabo los siguientes pasos para configurar un servidor de qurum o un dispositivo NAS como dispositivo del qurum.
Servidores del qurum: para configurar un servidor de qurum como dispositivo del qurum, haga lo siguiente:
Instale el software Servidor de qurum en la mquina de host del servidor de qurum e inicie este ltimo. Para obtener informacin acerca de la instalacin y el inicio del servidor de qurum, consulte Instalacin y configuracin del software Servidor de qurum en la pgina 64. Compruebe que los conmutadores de red conectados directamente con los nodos del clster cumplan uno de los criterios siguientes:
El conmutador es compatible con el protocolo RSTP. El conmutador tiene habilitado el modo de puerto rpido.
Se necesita una de estas funciones para que la comunicacin entre los nodos del clster y el servidor de qurum sea inmediata. Si el conmutador retrasa esta comunicacin significativamente, el clster lo interpreta como la prdida del dispositivo del qurum.
un nombre para asignarlo al dispositivo del qurum configurado la direccin IP de la mquina de host del servidor de qurum el nmero de puerto del servidor de qurum.
Dispositivos NAS: para configurar un dispositivo de almacenamiento conectado a red (NAS) como dispositivo del qurum, haga lo siguiente:
Instale el hardware y el software del dispositivo NAS. Consulte Oracle Solaris Cluster 3.3 With Network-Attached StorageDevices Manual y la documentacin del dispositivo para conocer los requisitos y los procedimientos de instalacin del hardware y el software de NAS. En el caso de dispositivos NAS de Network Appliance, deber disponer tambin de la siguiente informacin:
Si se dan las dos condiciones que aparecen a continuacin, modifique las entradas de archivo de la mscara de red de la red pblica en cada nodo del clster.
Pretende utilizar un servidor de qurum. La red pblica utiliza la mscara de subred de longitud variable, tambin llamada enrutamiento de interdominios sin clases (CIDR).
Si utiliza un servidor de qurum, pero la red pblica utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso. a. Agregue una entrada para cada subred pblica utilizada por el clster al archivo /etc/inet/netmasks . La siguiente entrada de ejemplo contiene una mscara de red y una direccin IP de red pblica:
10.11.30.0 255.255.255.0
b. Anexe netmask+ broadcast + a la entrada del nombre de host de cada archivo /etc/hostname. adaptador.
nodename netmask + broadcast + 2 3
Convirtase en superusuario en un nodo. Asegrese de que todos los nodos del clster estn en lnea.
phys-schost# cluster status -t node
Para utilizar un disco compartido como dispositivo del qurum, verifique la conectividad del dispositivo a los nodos del clster y elija el dispositivo que desea configurar. a. Visualice una lista de todos los dispositivos comprobados por el sistema desde un nodo del clster. No es necesario que inicie sesin como superusuario para ejecutar este comando.
phys-schost-1# cldevice list -v
b. Asegrese de que la salida muestre todas las conexiones entre los nodos del clster y los dispositivos de almacenamien to. c. Determine el nombre de ID del dispositivo global de cada disco compartido que est configurando como dispositivo del qurum.
Nota Los discos compartidos que elija deben ser vlidos para su uso como dispositivo
del qurum. Consulte la seccin Dispositivos de qurum en la pgina 41 para obtener ms informacin acerca de la seleccin de dispositivos del qurum. Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que est configurando como dispositivo del qurum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.
5
Si va a utilizar un disco compartido que no es compatible con el protocolo SC SI,asegrese de que el aislamiento para ese disco compartido est inhabilitado. a. Visualice la configuracin de aislamiento del disco individual.
phys-schost# cldevice show device === D ID Device Instances D ID Device Name: . . . default_fencing: . . .
===
/dev/did/rdsk/ dN nofencing
S i el aislamiento del disco se ha establecido en nofencing o nofencing-noscrub, esto significa que est inhabilitado. Vaya al Paso 6. S i el aislamiento del disco se ha establecido en pathcount o scsi , inhabilite este aislamiento. Vaya directamente al Paso c. S i el aislamiento del disco se ha establecido en global, compruebe si el aislamiento est inhabilitado de manera global. Vaya al Paso b. Otra opcin es, simplemente, inhabilitar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing . Vaya directamente al Paso c
cluster nofencing
S i el aislamiento global se ha establecido en nofencing o nofencing-noscrub, significa que est inhabilitado para los discos compartidos cuya propiedad default_fencing se haya establecido en global. Vaya al Paso 6.
S i el aislamiento global se ha establecido en pathcount o prefer3, inhabilite el aislamiento para el disco compartido. Vaya al Paso c.
de un disco individual se ha establecido en global , el aislamiento de ese disco estar inhabilitado siempre que la propiedad global_fencing , que afecta a todo el clster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, ste se habilitar en los discos cuya propiedad default_fencing se haya establecido en global . c. Inhabilite el aislamiento del disco compartido.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
Responda al mensaje D o you want to add any quorumdisks? (Desea agregar algn disco del qurum?).
S i el clster es de dos nodos, debe configurar al menos un dispositivo del qurum compartido. Escriba S para configurar uno o varios dispositivos del qurum. S i el clster tiene tres o ms nodos, la configuracin del dispositivo del qurum es opcional.
Escriba N o si no desea configurar ningn dispositivo del qurum adicional. En ese caso, vaya directamente al Paso 10. Escriba S para configurar dispositivos del qurum adicionales. A continuacin, vaya al Paso 8.
Especifique el tipo de dispositivo que desea configurar como dispositivo del qurum.
Tipo de dispositivo del qurum Descripcin
shared_disk
Descripcin
Servidor de qurum Dispositivo NAS de Network Appliance Dispositivo Sun Storage 7000 Unified Storage Systems NAS
Especifique el nombre del archivo que desea configurar como dispositivo del qurum.
la direccin IP del host del servidor de qurum el nmero de puerto que usa el servidor de qurum para comunicarse con los nodos del clster
En el caso de los dispositivos NAS de Network Appliance, especifique adems la siguiente informacin:
10
Responda S al mensaje Reiniciar "installmode" ?. Una vez que la utilidad clsetup haya establecido la configuracin y el nmero de votos del qurum en el clster, aparecer el mensaje Inicializacin del clster completa. La utilidad le lleva de nuevo al men principal. Salga de la utilidad clsetup . Verifique que la configuracin del qurum sea correcta y que el modo de instalacin est inhabilitado. Vaya a Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155. Proceso de clsetup interrumpido : si el proceso de configuracin del qurum se interrumpiera o no se completara correctamente, vuelva a ejecutar clsetup . Cambios en el recuento de votos del qurum: si ms adelante se incrementa o reduce el nmero de conexiones de nodos con un dispositivo de qurum, el nmero de votos de qurum no se recalcula de forma automtica. Puede volver a establecer el voto del qurum correcto quitando cada uno de los dispositivos del qurum y agregndolos despus nuevamente a la configuracin uno por uno. En el caso de un clster de dos nodos, agregue un nuevo dispositivo del qurum antes de quitar y volver a aadir el dispositivo del qurum original. A continuacin, quite el dispositivo del qurum temporal. Consulte el procedimiento sobre cmo modificar una lista de nodos de un dispositivo del qurum en el Captulo 6, Administracin de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.
11 Pasos siguientes
Errores ms frecuentes
Desde cualquier nodo de clster global, verifique la configuracin del qurum de los nodos y del clster.
phys-schost% clquorum list
Desde cualquier nodo, verifique que el modo de instalacin del clster est inhabilitado.
phys-schost% cluster show -t global | grep installmode installmode: disabled
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea cambiar algn nombre de host privado, vaya a Cmo cambiar nombres de host privados en la pgina 156. Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuracin de NTP. Vaya a Cmo configurar Network Time Protocol (NTP) en la pgina 164. Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166. Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de
Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.
Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias. Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.
Vase tambin
Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.
Nota No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las
aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podran continuar utilizando el nombre de host privado antiguo despus de haber cambiado el mismo, lo que causara conflictos en el nombre de host. Si hubiera alguna aplicacin o algn servicio de datos en ejecucin, detngalos antes de realizar este procedimiento. Realice este procedimiento en un nodo activo del clster.
1 2
Escriba el nmero correspondiente a la opcin Nombres de host privados y pulse la tecla Intro. Aparece el men Nombres de host privados.
Escriba el nmero correspondiente a la opcin Cambiar un nombre de host privado y pulse la tecla Intro. Siga las instrucciones y responda a los avisos que vayan apareciendo para cambiar el nombre de host privado. Repita este paso con cada nombre de host que desee cambiar.
Pasos siguientes
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuracin de NTP. Vaya a Cmo configurar Network Time Protocol (NTP) en la pgina 164. Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166.
Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de
Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.
Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.
ese nodo.
Puede configurar lmites de carga en un clster global o en clster de zona. Los factores que se establecen para controlar la distribucin de carga en cada nodo incluyen lmites de carga, prioridad de grupo de recursos y modo preferente. En el clster global, la propiedad Concentrate_load puede establecerse para seleccionar la directiva de distribucin de carga preferida: concentrar la carga de grupos de recursos en el menor nmero posible de nodos sin sobrepasar los lmites, o bien distribuir la carga lo ms uniformemente posible entre todos los nodos disponibles. El comportamiento predeterminado es distribuir la carga de los grupos de recursos. Cada grupo de recursos contina limitado a ejecutarse nicamente en los nodos de su lista de nodos, sea cual sea la configuracin del factor de carga y del lmite de carga.
Nota Para configurar la distribucin de carga de grupos de recursos puede utilizar la lnea
de comandos, la interfaz de Oracle Solaris Cluster Manager o la utilidad clsetup . El procedimiento siguiente explica cmo configurar la distribucin de carga de grupos de recursos mediante la utilidad clsetup . Si desea obtener instrucciones sobre el uso de la lnea de comandos para llevar a cabo estos procedimientos, consulte Configuracin de los lmites de carga de Gua de administracin del sistema de Oracle Solaris Cluster. Esta seccin incluye los procedimientos siguientes:
Cmo configurar lmites de carga de un nodo en la pgina 159 Cmo establecer la prioridad de un grupo de recursos en la pgina 160 Cmo establecer factores de carga de un grupo de recursos en la pgina 161 Cmo establecer el modo preferente de un grupo de recursos en la pgina 162 Cmo concentrar carga en menos nodos del clster en la pgina 163
Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
Seleccione el elemento de men Administrar lmites de carga. En pantalla aparece el men Administrar lmites de carga.
6 7
Escriba s y pulse Intro para continuar. Escriba el nmero de opcin correspondiente a la operacin que desea efectuar y pulse Intro. Puede crear, modificar o eliminar un lmite de carga.
Si ha decidido crear un lmite de carga, seleccione el nmero de opcin correspondiente al nodo en el que desea establecer el lmite de carga. Si desea establecer un lmite de carga en un segundo nodo, seleccione el nmero de opcin correspondiente al segundo nodo y pulse Intro. Una vez seleccionados todos los nodos en los que desea configurar lmites de carga, escriba q y pulse Intro.
9 10
Escriba s y pulse Intro para confirmar los nodos que ha seleccionado en el Paso 8. Escriba el nombre del lmite de carga y pulse Intro. Por ejemplo, escribamem_loadcomo nombre de un lmite de carga.
11
Escriba s o no para especificar un valor de lmite flexible y pulse Intro. Si ha escrito s , escriba el valor del lmite flexible y pulse Intro.
12
Escriba s o no para especificar un valor de lmite rgido y pulse Intro. Si ha escrito s , escriba el valor del lmite rgido y pulse Intro.
13 14
Escriba s y pulse Intro para proseguir la creacin del lmite de carga. Escriba s para continuar con la actualizacin y pulse la tecla Intro. Aparece el mensaje Com ando completado satisfactoriament e, junto con los lmites flexible y rgido de carga correspondientes a los nodos seleccionados. Pulse Intro para continuar.
15
Puede modificar o eliminar un lmite de carga mediante los indicadores de la utilidad clsetup . Vuelva al men anterior; para ello, escriba q y pulse Intro.
Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos. Seleccione el elemento de men Establecer prioridad por grupo de recursos. Aparece en pantalla el men Establecer prioridad por grupo de recursos. Escriba s y pulse Intro. Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Se muestra el valor establecido para la prioridad. El valor predeterminado de Prioridad es 500. Escriba el valor nuevo de Prioridad y pulse Intro. Escriba s para confirmar la entrada y pulse Intro. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
6 7
8 9 10
Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster. Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
Seleccione el elemento de men Establecer factores de carga por grupo de recursos. Aparece en pantalla el men Establecer factores de carga por grupo de recursos.
6 7 8
Escriba s y pulse la tecla Intro. Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Escriba el factor de carga. Por ejemplo, puede establecer un factor de carga denominado mem_loaden el grupo de recursos seleccionado escribiendo mem_load@50. Pulse Ctrl+D cuando haya terminado.
9 10
Pulse Intro para continuar con la actualizacin. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster.
Seleccione el elemento de men Administrar distribucin de carga de grupo de recursos. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
Seleccione el elemento de men Establecer modo preferente por grupo de recursos. Aparece en pantalla el men Establecer modo preferente por grupo de recursos.
Escriba el nmero de opcin correspondiente al grupo de recursos y pulse Intro. Si el grupo de recursos tiene establecido un modo preferente, se muestra de manera similar a la siguiente:
Escriba el nmero de opcin para el modo preferente que desee y pulse Intro. Las tres opciones son Has_cost, No_cost o Never.
9 10
Escriba s para continuar con la actualizacin y pulse la tecla Intro. Pulse Intro para volver al men anterior. En pantalla aparece el men Administrar distribucin de carga de grupo de recursos.
Seleccione el elemento de men Otras tareas del clster. Aparece el men Otras tareas del clster.
Seleccione el elemento de men Establecer la propiedad concentrate_load del clster. En pantalla aparece el men Establecer la propiedad Concentrate_load del clster.
6 7
Escriba s para cambiar el valor y pulse Intro. Escriba s para continuar con la actualizacin y pulse la tecla Intro.
Pulse Intro para volver al men anterior. Aparece el men Otras tareas del clster.
antes de instalar el software Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuacin: Realice esta tarea para crear o modificar el archivo de configuracin de NTP despus de llevar a cabo una de las siguientes tareas:
Instalar el software Oracle Solaris Cluster Agregar un nodo a un clster global existente Cambiar el nombre de host privado de un nodo del clster global
Si ha agregado un nodo a un clster de un solo nodo, debe asegurarse de que el archivo de configuracin de NTP que utilice se copie en el nodo de clster original y en el nodo nuevo.
1 2 3
Convirtase en superusuario en un nodo del clster. Si dispone de su propio archivo /etc/inet/ntp.conf , cpielo en cada nodo del clster.
Si no dispone de su propio archivo /etc/inet/ntp.conf para instalarlo, use el archivo /etc/inet/ntp.conf.cluster como archivo de configuracin de N TP.
Nota No cambie el nombre de ntp.conf.cluster
por ntp.conf .
Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalacin del software Oracle Solaris Cluster anterior. El software Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuracin de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. En tal caso, realice las modificaciones que se describen a continuacin en ese archivo ntp.conf . a. Abra el archivo de configuracin de N TPcon el editor de texto que desee en un nodo del clster para modificarlo. b. Asegrese de que exista una entrada para el nombre de host privado de cada nodo del clster. Si ha cambiado el nombre de host privado de cualquier nodo, asegrese de que el archivo
c. Realice otras modificaciones necesarias, si las hubiere, para cumplir los requisitos de N TP. d. Copie el archivo de configuracin de N TPen todos los nodos del clster. El contenido del archivo de configuracin de NTP debe ser idntico en todos los nodos del clster.
4
Detenga el daemon de N TPen todos los nodos. Espere a que el comando finalice correctamente en todos los nodos antes de continuar con el Paso 5.
phys-schost# svcadm disable ntp
Si existe el archivo ntp.conf , la secuencia de comandos se cierra inmediatamente sin necesidad de iniciar el daemon de NTP. Si no existe el archivo ntp.conf , pero s el archivo ntp.conf.cluster , la secuencia de comandos inicia el daemon de NTP. En ese caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuracin de NTP.
Pasos siguientes
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea configurar IPsec en la interconexin privada, vaya a Cmo configurar la arquitectura de seguridad IP (IPsec) en la interconexin privada del clster en la pgina 166. Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de
Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.
Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.
Convirtase en superusuario.
Configure, en cada nodo, el archivo de normas /etc/inet/ipsecinit.conf y agregue las asociaciones de seguridad (SA) entre cada par de direcciones IP de interconexiones privadas que desee que utilicen IPsec. Siga las instrucciones que aparecen en la seccin Cmo proteger el trfico entre dos sistemas con IPsec de Gua de administracin del sistema:serviciosIP. Adems, tenga en cuenta las siguientes directrices:
Asegrese de que los valores de los parmetros de configuracin de esas direcciones sean coherentes en todos los nodos asociados. Configure cada directiva como una lnea independiente del archivo de configuracin. Para implementar IPsec sin necesidad de reiniciarlo, siga las instrucciones que encontrar en el ejemplo del procedimiento Proteccin del trfico con IPsec sin necesidad de reiniciar.
Para obtener ms informacin acerca de la norma sa unique, consulte la pgina de comando man ipsecconf (1M). a. Agregue, en todos los archivos, una entrada para cada direccin IP clprivnet del clster para que utilicen IPsec. Incluya la direccin IP clprivnet del nodo local. b. Si utiliza interfaces de red virtuales (V N C I ), agregue tambin una entrada para la direccin IP de cada interfaz fsica utilizada por las V N IC . c. (Opcional) Incluya la directiva sa unique en la entrada para habilitar la segmentacin de datos en todos los vnculos. Esta opcin ayuda al controlador a hacer un uso ptimo del ancho de banda de la red privada del clster, lo que ofrece una alta granularidad de la distribucin y un mayor rendimiento. La interfaz clprivnet utiliza el ndice de parmetros de seguridad (SPI) del paquete para segmentar el trfico.
4
Edite, en cada nodo, el archivo /etc/inet/ike/config para configurar el parmetro p2_idletime_secs . Agregue esta entrada a las reglas de directivas configuradas para los transportes del clster. Esta configuracin establece el tiempo del que disponen las asociaciones de seguridad para volver a generarse cuando se reinicia un nodo del clster y limita el tiempo de un nodo reiniciado para volver a unirse al clster. 30 segundos debera ser un valor adecuado.
phys-schost# vi /etc/inet/ike/config . . . { label "clust-priv-interconnect1-clust-priv-interconnect2"
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Para instalar un administrador de volmenes, vaya al Captulo 4, Configuracin del software Solaris Volume Manager y al Captulo 5, Instalacin y configuracin de Veritas Volume Manager.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de
Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.
Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Antes de poner el clster en funcionamiento, realice un registro de lnea de base de la configuracin del clster para futuros diagnsticos. Vaya a Cmo registrar los datos de diagnstico de la configuracin del clster en la pgina 169.
1 2
Convirtase en superusuario. Instale Sun Explo rer, si an no se ha instalado. Oracle Services Tools Bundle contiene los paquetes de Sun Explorer SU N W explo y SU N W explu . Consulte http://www.sun.com/service/stb para obtener informacin sobre la descarga e instalacin de software.
Ejecute la utilidad explorer en todos los nodos del clster. Utilice el comando adecuado para su plataforma:
Servidor Comando
Sun Fire 3800 a 6800 Sun Fire V1280 y E2900 Sun Fire T1000 y T2000 Sun Fire X4x00 y X8x00 Resto de plataformas
Para obtener ms informacin, consulte la pgina de comando man explorer(1M) del directorio /opt/SUNWexplo/man/man1m/ y Oracle Explorer U sers Guide. El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer. id_host.nombre_host-fecha.tar.gz .
4
Guarde los archivos en una ubicacin a la que pueda acceder si el clster quedara inoperativo por completo. Enve todos los archivos explorer por correo electrnico a la direccin de la base de datos de Sun Explorer correspondiente a su ubicacin geogrfica. Esta base de datos pondr la salida de explorer a disposicin de la asistencia tcnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema tcnico del clster.
Ubicacin
Norteamrica, Amrica central y Sudamrica (AMER) Europa, Oriente medio y frica (EMEA) Asia, Australia, Nueva Zelanda y el Pacfico (APAC)
A P T U L O
Configure los discos locales y los de host mltiple para el software Solaris Volume Manager mediante los procedimientos que se presentan en este captulo y la informacin de planificacin incluida en Planificacin de la administracin de volmenes en la pgina 53. Consulte la documentacin de Solaris Volume Manager para obtener informacin adicional.
Nota El mdulo Enhanced Storage (almacenamiento mejorado) de Solaris Management
Console no es compatible con el software Oracle Solaris Cluster. Utilice la interfaz de lnea de comandos o las utilidades de Oracle Solaris Cluster para configurar el software Solaris Volume Manager. En este captulo se incluyen las siguientes secciones:
Configuracin del software Solaris Volume Manager en la pgina 171 Creacin de conjuntos de discos en un clster en la pgina 184 Configuracin de mediadores de dos cadenas en la pgina 193
(Continuacin)
Cree rplicas de base de datos de estado en los discos locales. (Opcional) Cree un reflejo de los sistemas de archivos en el disco raz.
Cmo crear rplicas de la base de datos de estado en la pgina 172 Creacin de reflejos del disco raz en la pgina 173
1 2
software Solaris Volume Manager, cree al menos tres rplicas para cada nodo. Tambin puede incluir rplicas en varios dispositivos para que sirvan de proteccin en caso de que alguno de los dispositivos presente errores. Consulte la pgina de comando man metadb(1M) y la documentacin de Solaris Volume Manager para obtener informacin detallada.
3
172
Pasos siguientes
Para crear un reflejo de los sistemas de archivos del disco raz, vaya a Creacin de reflejos del disco raz en la pgina 173. Si no desea utilizar esa opcin, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear conjuntos de discos de Solaris Volume Manager.
Cmo crear un reflejo del sistema de archivos raz (/) en la pgina 173 Cmo crear reflejos del espacio de nombres de los dispositivos globales en la pgina 176 Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179 Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181
al especificar el nombre del disco. Si especifica esta ruta para cualquier otro elemento que no sea un sistema de archivos del clster, el sistema no se podr iniciar.
mediante lofi , este procedimiento incluye la creacin de reflejos del espacio de nombres de dichos dispositivos.
1 2
Convirtase en superusuario. Ubique el segmento raz en una concatenacin de un solo segmento (unidireccional). Especifique el nombre de disco fsico del segmento del disco raz (cNtXdY sZ).
phys-schost# metainit -f submirror1 1 1 root-disk-slice
archivos de dispositivos globales, /global/.devices/node@ id_nodo , el nombre de volumen del reflejo debe ser nico en el clster.
5
El comando edita los archivos /etc/vfstab y /etc/system de manera que el sistema pueda iniciarse con el sistema de archivos raz (/) en un metadispositivo o volumen. Para obtener ms informacin, consulte la pgina de comando man metaroot (1M).
6
Este comando vaca todas las transacciones del registro y las guarda en el sistema de archivos principal de todos los sistemas de archivos UFS montados. Para obtener ms informacin, consulte la pgina de comando man lockfs (1M).
7
de_nodo Especificael nombre del nodo del que se desean extraer los grupos de recursos o dispositivos.
8
Reinicie el nodo. Este comando vuelve a montar el sistema de archivos raz (/) cuyo reflejo se ha creado recientemente.
phys-schost# shutdown -g0 -y -i6
Si el disco que se utiliza para reflejar el disco raz est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento de ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk
-p
default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
11
Registre la ruta de inicio alternativa para utilizarla ms adelan te. Si el dispositivo de inicio principal presenta errores, puede efectuar un inicio desde este dispositivo alternativo de inicio. Consulte Creating a RAID-1 Volume de Solaris Volume Manager Administration Guide para obtener ms informacin acerca de los dispositivos de inicio alternativos.
phys-schost# ls -l /dev/rdsk/ root-disk-slice
12
Repita del Paso 1 al Paso 11 en el resto de los nodos del clster. Asegrese de que todos los nombres de volumen de los reflejos en las que se vaya a montar un sistema de archivos de dispositivos globales, /global/.devices/node@ id_nodo , sean nicos en el clster.
Ejemplo 42
phys-schost# metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup phys-schost# metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup phys-schost# metainit d0 -m d10 d10: Mirror is setup phys-schost# metaroot d0 phys-schost# lockfs -fa phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 phys-schost# metattach d0 d20 d0: Submirror d20 is attachedphys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 > ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw Pasos siguientes
Para crear reflejos del espacio de nombres de dispositivos globales, /global/.devices/node@ id_nodo , vaya a Cmo crear reflejos del espacio de nombres de los dispositivos globales en la pgina 176. Para crear reflejos de sistemas de archivos que no se puedan desmontar, vaya a Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179.
Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.
Errores ms frecuentes
Algunos pasos de este procedimiento de creacin de reflejos podran generar un mensaje de error similar a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.
encuentra en un archivo basado en lofi . En lugar de ello, vaya a Cmo crear un reflejo del sistema de archivos raz (/) en la pgina 173.
1 2
Convirtase en superusuario. Ubique el segmento de espacio de nombres de dispositivos globales en una concatenacin de un solo segmento (unidireccional). Utilice el nombre de disco fsico del segmento del disco (cNtXd Y sZ).
phys-schost# metainit -f submirror1 1 1 diskslice
Adjunte el segundo subreflejo al reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2
Edite la entrada del archivo /etc/vfstab del sistema de archivos /global/.devices/node@ id_nodo. Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /global/.devices/node@ nodeid ufs 2 no global
7 8
Repita del Paso 1 al Paso 6 en el resto de los nodos del clster. Espere a que se complete la sincronizacin de los reflejos, que comenz en el Paso 5. Visualice el estado del reflejo y compruebe que la sincronizacin de reflejos se haya completado mediante el comando metastat (1M).
phys-schost# metastat mirror
Si el disco que se utiliza para crear reflejos del espacio de nombres de dispositivos globales est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk
-p Especifica una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
Ejemplo 43
phys-schost# metattach d101 d121 d101: Submirror d121 is attached phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ d101 /dev/md/rdsk/ d101 /global/.devices/node@1 ufs 2 no global phys-schost# metastat d101 d101: Mirror Submirror 0: d111 State: Okay Submirror 1: d121 State: Resyncing Resync in progress: 15 % done . . . phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0 === D ID Device Instances === D ID Device Name: Full Device Path: Full Device Path: . . . phys-schost# Device Group . . . Node List: . . . localonly: phys-schost# phys-schost# Pasos siguientes cldevicegroup show | grep dsk/d2 Name: /dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c2t2d0 phys-schost-3:/dev/rdsk/c2t2d0
dsk/d2 phys-schost-3
phys-schost-1, false cldevicegroup remove-node -n phys-schost-3 dsk/d2 cldevice set -p default_fencing=nofencing c2t2d0
Para crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar, vaya a Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar en la pgina 179. Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.
Errores ms frecuentes
Algunos pasos de este procedimiento de creacin de reflejos podran generar un mensaje de error similar a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.
Cmo crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar
Utilice este procedimiento para crear reflejos de sistemas de archivos que no sean raz (/) y no se puedan desmontar durante el uso normal del sistema, tales como /usr , /opt o swap.
1 2
Convirtase en superusuario. Ubique el segmento que contiene el sistema de archivos que no se puede montar en una concatenacin de un solo segmento (unidireccional). Especifiqueel nombre de disco fsico del segmento del disco (cNtX dYsZ).
phys-schost# metainit -f submirror1 1 1 diskslice
Repita del Paso 1 al Paso 4 en el resto de los sistemas de archivos no montables que desee reflejar. Edite en todos los nodos la entrada del archivo /etc/vfstab no montable que haya reflejado. de cada sistema de archivos
Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /filesystem ufs 2 no global 7
de_nodo Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos.
8
Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6
Adjunte el segundo subreflejo a cada reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2
10
Espere a que se complete la sincronizacin de los reflejos, que comenz en el Paso 9. Visualice el estado del reflejo y compruebe que la sincronizacin de reflejos se haya completado mediante el comando metastat (1M).
phys-schost# metastat mirror
11
Si el disco que se utiliza para crear reflejos del sistema de archivos no montable est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk
-p Especifica una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
Ejemplo 44
fsck pass
mount options
d1: Mirror Submirror 0: d11 State: Okay Submirror 1: d21 State: Resyncing Resync in progress: 15 % done . . . phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0 . . . D ID Device Name: /dev/did/ rdsk/d2 phys-schost# cldevicegroup show dsk/d2 Device Group Name: dsk/d2 . . . Node List: phys-schost-1, phys-schost-3 . . . localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c2t2d0 Pasos siguientes
Si desea crear reflejos de sistemas de archivos definidos por el usuario, vaya a Cmo crear reflejos de sistemas de archivos que se pueden desmontar en la pgina 181. De lo contrario, vaya a Creacin de conjuntos de discos en un clster en la pgina 184 para crear un conjunto de discos.
Errores ms frecuentes
Algunos de los pasos de este procedimiento de creacin de reflejos pueden llegar a generar un mensaje de error parecido a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.
1 2
Convirtase en superusuario. Desmonte el sistema de archivos del que crear reflejos. Asegrese de que ningn proceso se est ejecutando en el sistema de archivos.
phys-schost# umount /mount-point
Consulte la pgina de comando man umount(1M) y Captulo 18, Mounting and Unmounting File Systems (Tasks) de System Administration Guide: Devices and File Systems para obtener ms informacin.
Ubique en una concatenacin de un solo segmento (unidireccional) el segmento que contiene el sistema de archivos definido por el usuario que se puede desmonta r. Especifiqueel nombre de disco fsico del segmento del disco (cNtX dYsZ).
phys-schost# metainit -f submirror1 1 1 diskslice
6 7
Repita del Paso 1 al Paso 5 para cada sistema de archivos montable que vaya a reflejar. Edite en todos los nodos la entrada del archivo /etc/vfstab del que haya creado un reflejo. para cada sistema de archivos
Sustituya los nombres de las columnas device to mount y device to fsck por el nombre del reflejo.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/ mirror /dev/md/rdsk/ mirror /filesystem ufs 2 no global 8
Adjunte el segundo subreflejo al reflejo. Esto iniciar una sincronizacin de los subreflejos.
phys-schost# metattach mirror submirror2
Espere a que se complete la sincronizacin de los reflejos que comenz en el Paso 8. Utilice el comando metastat(1M) para visualizar el estado del reflejo.
phys-schost# metastat mirror
10
Si el disco que se utiliza para crear reflejos del sistema de archivos definido por el usuario est conectado fsicamente con varios nodos (de host mltiple), inhabilite el aislamiento en ese disco. Al inhabilitar el aislamiento para el dispositivo, se impide que un nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing submirror-disk
default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
11
Consulte la pgina de comando man mount(1M) y Captulo 18, Mounting and Unmounting File Systems (Tasks) de System Administration Guide: Devices and File Systems para obtener ms informacin.
Ejemplo 45
phys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# m ount /export Pasos siguientes
Para crear un conjunto de discos, vaya a Creacin de conjuntos de discos en un clster en la pgina 184. Si en lugar de ello va a crear un conjunto de discos de varios propietarios para que lo utilice Oracle Real Application Clusters, vaya a Cmo crear un conjunto de discos de mltiples propietarios en Solaris Volume Manager for Sun Cluster para la base de datos Oracle RAC de Gua del servicio de datos de Oracle Solaris Cluster para Oracle Real Application Clusters (RAC). Si ya dispone de los conjuntos de discos suficientes para sus necesidades, vaya a uno de los siguientes procedimientos:
Si el clster contiene conjuntos de discos configurados exactamente con dos receptculos para discos y dos nodos, debe agregar mediadores de dos cadenas. Vaya a Configuracin de mediadores de dos cadenas en la pgina 193. Si la configuracin del clster no requiere mediadores de dos cadenas, vaya a Cmo crear sistemas de archivos del clster en la pgina 217.
Errores ms frecuentes
Algunos de los pasos de este procedimiento de creacin de reflejos pueden llegar a generar un mensaje de error parecido a metainit: dg-schost-1: d1s0: not a metadevice. Este tipo de error es inofensivo y se puede omitir.
Cree conjuntos de discos mediante el comando metaset . Agregue unidades a los conjuntos de discos.
Cmo crear un conjunto de discos en la pgina 185 Cmo agregar unidades a un conjunto de discos en la pgina 188
(Opcional) Vuelva a realizar las particiones de las unidades de un conjunto de discos para asignar espacio a distintos segmentos. Haga que se muestren las asignaciones de los pseudocontroladores DID y defina los volmenes de los archivos /etc/lvm/md.tab . Inicialice los archivos md.tab .
Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos en la pgina 189 Cmo crear un archivo md.tab en la pgina 190
Compruebe que el comando haya terminado su proceso en todos los nodos antes de intentar crear los conjuntos de discos. El comando se ejecuta de forma remota en todos los nodos, incluso al ejecutarse en un solo nodo. Para comprobar si el comando ha finalizado su proceso, ejecute el siguiente comando en cada nodo del clster:
phys-schost# ps -ef | grep scgdevs
Compruebe que el conjunto de discos que desea crear cumpla alguno de los requisitos que se recogen a continuacin.
Si el conjunto de discos se ha configurado exactamente con dos cadenas de discos, debe conectarse exactamente a dos nodos, y debe utilizar dos o tres hosts mediadores. Estos hosts mediadores incluyen los dos hosts conectados a los contenedores donde se ubica el conjunto de discos. Consulte la seccin Configuracin de mediadores de dos cadenas en la pgina 193 para obtener informacin detallada sobre la configuracin de los mediadores de dos cadenas. Si el conjunto de discos se ha configurado con ms de dos cadenas de discos, asegrese de que, en las cadenas S1 y S2, la suma del nmero de unidades de disco supere el nmero de unidades de la tercera cadena S3. Si lo representamos como una frmula, el requisito es: total(S1) + total(S2) > total(S3).
Asegrese de que existan las rplicas de bases de datos de estado locales. Si desea obtener instrucciones, consulte Cmo crear rplicas de la base de datos de estado en la pgina 172. Convirtase en superusuario en el nodo del clster que vaya a controlar el conjunto de discos. Cree el conjunto de discos. El comando que aparece a continuacin crea el conjunto de discos y lo registra como grupo de dispositivos de Oracle Solaris Cluster.
phys-schost# metaset -s setname -a -h node1 node2
6 7
-s setname Especificael nombre del conjunto de discos. -a Agrega (crea) el conjunto de discos. -h nodo1 Especificael nombre del nodo primario que controlar el conjunto de discos. nodo2 Especificael nombre del nodo secundario que controlar el conjunto de discos.
Nota Al ejecutar el comando metaset para configurar un grupo de dispositivos de Solaris
Volume Manager en un clster, el comando designa un nodo secundario de forma predeterminada. Puede cambiar el nmero de nodos secundarios deseado en el grupo de dispositivos mediante la utilidad clsetup una vez se haya creado el grupo de dispositivos. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener ms informacin acerca de cmo cambiar la propiedad numsecondaries .
8
Si est configurando un grupo de dispositivos de Solaris Volume Manager repetido, establezca la propiedad de repeticin del grupo de dispositivos.
phys-schost# cldevicegroup sync device-group-name
Para obtener ms informacin acerca de la repeticin de datos, consulte el Captulo 4, Mtodos de replicacin de datos de Gua de administracin del sistema de Oracle Solaris Cluster.
9
10
nombre Especificael nombre de una propiedad. valor Especifica el valor o configuracin de una propiedad. grupo_dispositivos Especificael nombre del grupo de dispositivos. El nombre del grupo de dispositivos es el mismo que el del conjunto de discos. Consulte la pgina de comando man cldevicegroup(1CL) para obtener informacin acerca de las propiedades de grupo de dispositivos.
Ejemplo 46
Pasos siguientes
Agregue unidades al conjunto de discos. Vaya a Adicin de unidades a un conjunto de discos en la pgina 187.
Se reserva una pequea parte de cada unidad para su uso por parte del software Solaris Volume Manager. En los dispositivos etiquetados ndice de contenido del volumen (VTOC), se utiliza el segmento 7. En los dispositivos etiquetados Interfaz de firmware ampliable (EFI), se utiliza el segmento 6. El espacio sobrante de cada dispositivo se ubica en el segmento 0. A l agregar las unidades al conjunto de discos, se reconfigura la particin de stas slo si el segmento de destino no est configurado correctamente. A l reconfigurar la particin, se pierden todos los datos incluidos en las unidades. Si el segmento de destino comienza en el cilindro 0 y la particin de la unidad es lo suficientemente grande como para contener una rplica de base de datos de estado, no se realiza una nueva particin.
Asegrese de que el conjunto de discos se haya creado. Para obtener instrucciones, consulte Cmo crear un conjunto de discos en la pgina 185. Convirtase en superusuario. Haga que se muestren las asignaciones D ID.
phys-schost# cldevice show | grep Device
Elija las unidades que comparten los nodos del clster que vayan a controlar el conjunto de discos o que tengan la posibilidad de hacerlo. Use el nombre de dispositivo de DID completo, que tiene el formato /dev/did/rdsk/d N, al agregar una unidad a un conjunto de discos. indican que
En el ejemplo siguiente, las entradas del dispositivo de DID /dev/did/rdsk/d3 phys-schost-1 y phys-schost-2 comparten la unidad.
=== D ID Device Instances === D ID Device Name: Full Device Path: D ID Device Name: Full Device Path: D ID Device Name: Full Device Path: Full Device Path: . . . 3
-n nodo Especificael nodo que va a ser el propietario del grupo de dispositivos. grupo_dispositivos Especificael nombre del grupo de dispositivos, que es el mismo que el del conjunto de discos.
4
Agregue las unidades al conjunto de discos. Utilice el nombre completo de la ruta de DID.
phys-schost# metaset -s setname -a /dev/did/rdsk/d N
-s nombre_conjunto Especificael nombre del conjunto de discos, que es el mismo que el del grupo de dispositivos. -a Agrega la unidad al conjunto de discos.
Nota No utilice el nombre de dispositivo de nivel inferior (cNtXdY) cuando agregue una
unidad a un conjunto de discos. Ya que el nombre de dispositivo de nivel inferior es un nombre local y no nico para todo el clster, si se utiliza es posible que se prive al metaconjunto de la capacidad de conmutar a otra ubicacin.
5
Ejemplo 47
y /dev/did/rdsk/d2
/dev/did/rdsk/d2
al
Pasos siguientes
Si desea reconfigurar la particin de unidades para utilizarlas en volmenes, vaya a Cmo reconfigurar las particiones de los dispositivos de un conjunto de discos en la pgina 189. De lo contrario, vaya a Cmo crear un archivo md.tab en la pgina 190 para definir metadispositivos o volmenes mediante un archivo md.tab .
1 2
Convirtase en superusuario. Utilice el comando format para modificar la particin de disco en todas las unidades del conjunto de discos. Al reconfigurar la particin de una unidad, se deben cumplir las siguientes condiciones para evitar que el comando metaset(1M) reconfigure la particin de la unidad:
Cree el segmento 7 en VTOC o el 6 en EFI con inicio en el cilindro 0 y lo suficientemente grandes para albergar una rplica de base de datos de estado. Consulte la gua de administracin de Solaris Volume Manager para determinar cul ha de ser el tamao de una rplica de base de datos de estado en la versin del software de administracin de volmenes que utiliza. Establezca el campo Flag del segmento de destino en w u (lectura-escritura, no montable). No lo configure como de slo lectura. No permita que el segmento de destino se solape con otro segmento de la unidad.
Defina los volmenes mediante un archivo md.tab. Vaya a Cmo crear un archivo md.tab en la pgina 190.
ID de dispositivo utilizados para formar conjuntos de discos. Por ejemplo, si se utiliza el nombre de ID de dispositivo /dev/did/dsk/d3 en un conjunto de discos, no se debe utilizar el nombre /dev/md/dsk/d3 para un volumen local. Este requisito no se aplica a volmenes compartidos, que utilizan la convencin de nomenclatura /dev/md/ nombre_conjunto/ {r}dsk/d #.
1 2
Convirtase en superusuario. Haga que se muestren las asignaciones D ID para utilizarlas como referencia al crear el archivo md.tab. Utilice los nombres de dispositivo DID completos del archivo md.tab en lugar de los nombres de dispositivo de nivel inferior (cN tXdY). El nombre del dispositivo DID sigue el esquema /dev/did/rdsk/d N.
phys-schost# cldevice show | grep Device === D ID Device Instances D ID Device Name: Full Device Path: D ID Device Name: === /dev/did/rdsk/d1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d2
Full Device Path: D ID Device Name: Full Device Path: Full Device Path: . . .
una copia de seguridad de dichos datos antes de configurar el volumen. A continuacin, restaure los datos en el reflejo. Con el fin de evitar posibles confusiones entre los volmenes locales de distintos nodos en un entorno de clster, utilice una estructura de nombres que haga que cada nombre de volumen local sea nico en el clster. Por ejemplo, elija los nombres entre d100 y d199 para el nodo 1. Y entre d200 y d299 para el nodo 2. Consulte la documentacin de Solaris Volume Manager y la pgina de comando man md.tab(4) para obtener informacin detallada acerca de la creacin de archivos md.tab .
Ejemplo 48
Archivo ejemplo
md.tab
de
El archivo md.tab de ejemplo mostrado a continuacin define el conjunto de discos con nombre dg-schost-1 . No es importante ordenar las lneas en el archivo md.tab .
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
El archivo md.tab de ejemplo se ha construido de la siguiente forma: 1. En la primera lnea, se define el dispositivo d0 como reflejo de los volmenes d10 y d20. La -m indica que se trata de un dispositivo de reflejo.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
2. En la segunda lnea, se define el volumen d10, el primer subreflejo de d0, como banda unidireccional.
Pasos siguientes dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
3. En la tercera lnea, se define el volumen d20, el segundo subreflejo de d0, como banda unidireccional.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
Active los volmenes definidos en los archivos md.tab. Vaya a Cmo activar volmenes en la pgina 191.
2 3
Asegrese de que los archivos md.tab se encuentren en el directorio /etc/lvm . Asegrese de tener la propiedad del conjunto de discos del nodo en el que se ejecutar el comando. Convirtase en propietario del conjunto de discos.
phys-schost# cldevicegroup switch -n node devicegroup
-n nodo Especificael nodo que toma posesin. grupo_dispositivos Especificael nombre del conjunto de discos.
5
Active los volmenes del conjunto de discos, que se definen en el archivo md.tab.
phys-schost# metainit -s setname -a
-s nombre_conjunto Especificael nombre del conjunto de discos. -a Activa todos los volmenes del archivo md.tab.
6
Repita del Paso 3 al Paso 5 para cada conjunto de discos del clster. Si fuera necesario, ejecute el comando metainit(1M) desde otro nodo que tenga conectividad con las unidades. Es necesario realizar este paso en topologas de pares de clsteres, en las que las unidades no son accesibles desde todos los nodos. Compruebe el estado de los volmenes.
phys-schost# metastat -s setname
Almacene el archivo en una ubicacin que se encuentre fuera del clster. Si realiza cambios en la configuracin del disco, ejecute este comando para capturar la configuracin modificada. Si un disco presenta errores y es necesario sustituirlo, esta informacin puede utilizarse para restaurar la configuracin de particin del disco. Para obtener ms informacin, consulte la pgina de comando man prtvtoc (1M).
9
(Opcional) Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.
Ejemplo 49
Pasos siguientes
Si el clster contiene conjuntos de discos configurados exactamente con dos receptculos para discos y dos nodos, agregue mediadores de dos cadenas. Vaya a Configuracin de mediadores de dos cadenas en la pgina 193. De lo contrario, vaya a Cmo crear sistemas de archivos del clster en la pgina 217 para crear un sistema de archivos del clster.
TA B L A43 Tarea
Requisitos para los mediadores de dos cadenas en la pgina 194 Cmo agregar hosts mediadores en la pgina 194
Compruebe el estado de los datos de mediador. Si fuera necesario, corrija los datos de mediador errneos.
Cmo comprobar el estado de los datos de mediador en la pgina 195 Cmo corregir datos de mediador errneos en la pgina 196
Los conjuntos de discos se deben configurar con dos o tres hosts mediadores. Dos de estos hosts mediadores deben ser los dos nodos del clster utilizados para el conjunto de discos. El tercero puede ser otro nodo del clster o un host que no est en clster en la red pblica del clster, por ejemplo un servidor de qurum. Los mediadores no se pueden configurar en los conjuntos de discos que no cumplan los criterios de dos cadenas y dos hosts.
Estas reglas no requieren que en todo el clster haya slo dos nodos. Estas reglas permiten clsteres N+1 y muchas otras topologas.
Antes de empezar
Si va a utilizar un tercer host mediador para un conjunto de discos de dos cadenas y dicho host no tiene configurados todava conjuntos de discos, efecte los pasos siguientes: Agregue la entrada root al grupo sysadmin del archivo /etc/group . Cree un conjunto de discos de prueba con el comando:
phys-schost-3# metaset -s dummy-diskset-name -a -h hostname
Convirtase en superusuario en el nodo que controla actualmente el conjunto de discos al que pretende agregar hosts mediadores.
2
Agregue los nodos con conectividad al conjunto de discos como host mediador de ese conjunto de discos.
phys-schost# metaset -s setname -a -m mediator-host-list
-s nombre_conjunto Especificael nombre del conjunto de discos. -a Agrega elementos al conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a agregar como host mediador del conjunto de discos. Consulte la pgina de comando man mediator(7D) para obtener informacin detallada sobre las opciones especficas de mediadores del comando metaset .
Ejemplo 410
Pasos siguientes
Compruebe el estado de los datos de mediador. Vaya a Cmo comprobar el estado de los datos de mediador en la pgina 195.
Antes de empezar 1
-s nombre_conjunto Especificael nombre del conjunto de discos. Consulte la pgina de comando man medstat(1M) para obtener ms informacin.
2
Si el campo Estado de la salida de medstat muestra el valor B ad(Errneo), repare el host mediador que corresponda. Vaya a Cmo corregir datos de mediador errneos en la pgina 196. Vaya a Cmo crear sistemas de archivos del clster en la pgina 217 para crear un sistema de archivos del clster.
Pasos siguientes
2 3
-s nombre_conjunto Especificael nombre del conjunto de discos. -d Elimina elementos del conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a eliminar como host mediador del conjunto de discos.
4
-a Agrega elementos al conjunto de discos. -m lista_hosts_mediadores Especificael nombre del nodo que se va a agregar como host mediador del conjunto de discos. Consulte la pgina de comando man mediator(7D) para obtener informacin detallada sobre las opciones especficas de mediadores del comando metaset .
Pasos siguientes
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.
198
A P T U L O
Instale y configure los discos locales y los discos multihost para Veritas Volume Manager (VxVM) usando los procedimientos que se indican en este captulo, junto con la informacin de planificacin que figura en Planificacin de la administracin de volmenes en la pgina 53. Consulte la documentacin de VxVM para obtener ms informacin. En este captulo se incluyen las siguientes secciones:
Instalacin y configuracin del software VxVM en la pgina 199 Creacin de grupos de discos en un clster en la pgina 207 Desencapsulacin del disco raz en la pgina 214
Planifique el diseo de configuracin de VxVM. (Opcional) Determine cmo crear el grupo de discos raz en cada nodo.
Planificacin de la administracin de volmenes en la pgina 53 Informacin general de la configuracin de un grupo de discos raz en la pgina 200
199
TA B L A51 Tarea
(Continuacin)
Cmo instalar el software Veritas Volume Manager en la pgina 201 Documentacin de instalacin de VxVM
(Opcional) Cree un grupo de discos raz. Puede encapsular el disco raz (slo para UFS) o crear el grupo de discos raz en discos locales que no sean raz. (Opcional) Cree reflejos del disco raz encapsulado. Cree grupos de discos.
SPARC: Cmo encapsular el disco raz en la pgina 203 Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204 Cmo crear reflejos del disco raz encapsulado en la pgina 205 Creacin de grupos de discos en un clster en la pgina 207
El acceso del grupo de discos raz del nodo se debe restringir a ese nodo. Los nodos remotos no deben acceder nunca a los datos almacenados en un grupo de discos raz de otro nodo. No utilice el comando cldevicegroup para registrar el grupo de discos raz como grupo de dispositivos. Siempre que sea posible, configure el grupo de discos raz de cada nodo en un disco no compartido.
El software Oracle Solaris Cluster admite los siguientes mtodos para configurar el grupo de discos raz.
Encapsulacin del disco raz del nodo (slo para UFS): este mtodo permite crear reflejos del disco raz, lo que proporciona un mtodo alternativo de inicio en caso de que el disco raz est daado. Para encapsular el disco raz, necesita dos segmentos de disco libres, as como cilindros libres, preferiblemente al inicio o al final del disco. No se pueden encapsular el disco raz si ste utiliza el sistema de archivos ZFS. En su lugar, configure el grupo de discos raz en discos locales que no sean raz.
Uso de discos locales que no sean raz: este mtodo proporciona una alternativa a la encapsulacin del disco raz. Si se encapsula el disco raz de un nodo, determinadas tareas que podran realizarse posteriormente, como la actualizacin del sistema
200
operativo o los
201
procedimientos de recuperacin ante desastres, pueden resultar ms complicadas que si el disco raz no se encapsula. Para evitar esta posible complejidad aadida, puede inicializar o encapsular los discos locales que no sean raz para utilizarlos como grupos de disco raz. Un grupo de discos raz creado en discos locales que no sean raz es local en ese nodo, por lo que no est accesible globalmente ni proporciona alta disponibilidad. Al igual que en el disco raz, para encapsular un disco que no sea raz, se necesitan dos segmentos de disco, as como segmentos libres, al inicio o al final del disco. Consulte la documentacin de instalacin de VxVM para obtener ms informacin.
Realice este procedimiento para instalar el software Veritas Volume Manager (VxVM) en cada nodo del clster global en el que desee instalar VxVM. Puede instalar VxVM en todos los nodos del clster o slo en aquellos conectados fsicamente a los dispositivos de almacenamiento que administrar VxVM.
Antes de empezar
Asegrese de que todos los nodos del clster se estn ejecutando en el modo de clster. Obtenga las claves de licencia de Veritas Volume Manager (VxVM) que necesite instalar. Tenga a mano la documentacin de instalacin de Veritas Volume Manager.
Convirtase en superusuario en el nodo del clster en el que desee instalar Veritas Volume Manager. Introduzca el CD-R O Mde V xV Men la unidad de CD-R O Mdel nodo. Siga los procedimientos de la gua de instalacin de V xV Mpara instalar y configurar el software y las licencias de V xV M . Ejecute la utilidad clvxvm en el modo no interactivo.
phys-schost# clvxvm initialize
2 3
La utilidad clvxvm realiza las tareas posteriores a la instalacin necesarias. La utilidad clvxvm tambin selecciona y configura el nmero mayor del controlador vxio en todo el clster. Consulte la pgina de comando man clvxvm(1CL) para obtener ms informacin.
5
SPA R C :Para habilitar la funcin de clster de V xV M proporcione , la clave de licencia de esta funcin si an no lo ha hecho.
Captulo 5 Instalacin y configuracinde Veritas Volume Manager 201
Consulte la document acin de VxVM para obtener informaci n sobre cmo agregar una licencia.
202
(Opcional) Instale la G U Ide V xV M . Consulte la documentacin de VxVM para obtener informacin sobre la instalacin de la GUI de VxVM.
7 8
Expulse el CD-R OM . Instale los parches de VxVMsho rt; necesarios para admitir el uso de Oracle Solaris Cluster. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin.
del clster.
10
Si no instala V xV Men uno o varios nodos, modifique el archivo /etc/name_to_major en cada nodo sin V xV M . a. En un nodo en el que se haya instalado V xV M determine , el valor del nmero mayor de vxio .
phys-schost# grep vxio /etc/name_to_major
b. Convirtase en superusuario en un nodo en el que no tenga intencin de instalar V xV M c. . Edite el archivo /etc/name_to_major y agregue una entrada para establecer el nmero mayor de vxio en NNN, el nmero obtenido en el Paso a.
phys-schost# vi /etc/name_to_major vxio NNN
e. Repita del Paso a al Paso d en todos los nodos en los que no desee instalar V xV M . Una vez finalizado el proceso, cada nodo del clster debera tener la misma entrada vxio en el archivo /etc/name_to_major .
11
Para crear un grupo de discos raz, vaya a SPA R C :Cmo encapsular el disco raz en la pgina 203 o Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204. De lo contrario, contine con el Paso 12.
12
Pasos siguientes
Para crear un grupo de discos raz, vaya a SPARC: Cmo encapsular el disco raz en la pgina 203 (slo para UFS) o Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204. De lo contrario, cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.
que no sean raz. Si desea crear un grupo de discos raz en discos que no sean raz, lleve a cabo el procedimiento descrito en Cmo crear un grupo de discos raz en un disco que no sea raz en la pgina 204.
Antes de empezar 1 2
Asegrese de que haya instalado VxVM, como se describe en la seccin Cmo instalar el software Veritas Volume Manager en la pgina 201. Convirtase en superusuario en el nodo en el que ha instalado V xV M Encapsule . el disco raz UFS.
phys-schost# clvxvm encapsulate
Repita el procedimiento para cada nodo en el que haya instalado V xV M . Para crear reflejos del disco raz encapsulado, vaya a Cmo crear reflejos del disco raz encapsulado en la pgina 205. De lo contrario, vaya a Creacin de grupos de discos en un clster en la pgina 207.
los procedimientos descritos en SPARC: Cmo encapsular el disco raz en la pgina 203.
Antes de empezar
Si se van a encapsular los discos, asegrese de que cada uno de ellos cuente con, al menos, dos segmentos sin ningn cilindro. Si es necesario, utilice el comando format(1M) para asignar 0 cilindros al segmento de VxVM. Convirtase en superusuario. Inicie la utilidad vxinstall .
phys-schost# vxinstall
1 2
SPAR C : Para habilitar la funcin de clster de VxVM, proporcione la clave de licencia de esta funcin. Seleccione la instalacin personalizada. No encapsule el disco de Seleccione los discos que se agregarn al grupo de discos
inicio.
Si el grupo de discos raz que se ha creado contiene uno o varios discos que se conectan a ms de un nodo, asegrese de que el aislamiento est inhabilitado para estos discos. Utilice el siguiente comando para inhabilitar el aislamiento para cada disco compartido del grupo de discos raz.
phys-schost# cldevice set -p default_fencing=nofencing device
default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. La inhabilitacin de esta funcin en el dispositivo impide el aislamiento del nodo en el disco utilizado por el grupo de discos raz cuando ste se encuentra conectado a varios nodos.
Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
5
de_nodo Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos.
6
Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6
Utilice el comando vxdiskadmpara agregar varios discos al grupo de discos raz. El grupo de discos raz puede tolerar un error de disco si contiene varios discos. Consulte la documentacin de VxVM para obtener informacin sobre los procedimientos. Cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.
Pasos siguientes
Antes de empezar 1 2
Asegrese de que haya encapsulado el disco raz como se describe en la seccin SPARC: Cmo encapsular el disco raz en la pgina 203. Convirtase en superusuario. Muestre los dispositivos.
phys-schost# cldevice list -v
Cree reflejos del disco raz encapsulad o. Siga los procedimientos descritos en la documentacin de VxVM. Para obtener la mxima disponibilidad y una administracin simplificada, utilice un disco local para el reflejo. Consulte la seccin Directrices para la creacin de reflejos del disco raz en la pgina 58 para obtener directrices adicionales.
Caution No utilice un dispositivo del qurum para crear reflejos de un disco raz, ya que
esto podra impedir que el nodo se inicie desde el reflejo del disco raz en determinadas circunstancias.
4
Busque en la lista de nodos del grupo de dispositivos de disco bsicos el dispositivo que haya utilizado para crear el reflejo del disco raz. El nombre del grupo de dispositivos presenta el formato, dsk/dN, donde dN es el nombre del dispositivo DID.
phys-schost# cldevicegroup list -v dsk/dN
phys-schost-3
Si la lista de nodos contiene ms un nombre de nodo, suprima de la lista todos los nodos, excepto aquel cuyo disco raz se haya reflejado. Slo el nodo cuyo disco raz se ha reflejado debera permanecer en la lista de nodos del grupo de dispositivos de disco bsicos.
phys-schost# cldevicegroup remove-node -n node dsk/d N
-n nodo Especificael nodo que se va a suprimir de la lista de nodos del grupo de dispositivos.
6
Inhabilite el aislamiento para todos los discos del grupo de dispositivos de disco bsicos que se conecten a ms de un nodo. Al inhabilitar el aislamiento para un dispositivo, se impide que el nodo quede aislado accidentalmente de su dispositivo de inicio cuando ste est conectado a varios nodos.
phys-schost# cldevice set -p default_fencing=nofencing device
-p Establece el valor de una propiedad de dispositivo. default_fencing=nofencing Inhabilita el aislamiento en el dispositivo especificado. Para obtener ms informacin sobre la propiedad default_fencing , consulte la pgina de comando man cldevice (1CL).
7
Repita esta procedimiento en cada nodo del clster cuyo disco raz encapsulado desee reflejar.
Ejemplo 51
Pasos siguientes
Cree grupos de discos. Vaya a Creacin de grupos de discos en un clster en la pgina 207.
Requisito de almacenamien to
Grupos de dispositivos para servicios de datos escalables o de migracin tras error, dispositivos globales o sistemas de archivos del clster Aplicaciones que no sean de alta disponibilidad y confinadas a un nico nodo Oracle Real Application Clusters (requiere tambin la funcin de clster de VxVM)
Almacenamiento compartido
No
No
En la tabla siguiente, se muestran las tareas necesarias para crear grupos de discos de VxVM
en una configuracin de Oracle Solaris Cluster. Realice los procedimientos en el orden clster indicado.
TA B L A52 Tarea
Registre como grupos de dispositivos de Oracle Cmo registrar un grupo de discos en la pgina 210 Solaris Cluster aquellos grupos de discos que no sean locales y que no utilicen la funcin de clster VxVM. Si es necesario, solucione cualquier conflicto entre los Asignacin de un nmero menor nuevo a un grupo grupos de dispositivos en relacin el nmero menor de dispositivos en la pgina 211 asignando uno nuevo. Compruebe los grupos de discos y los volmenes Cmo verificar la configuracin del grupo de discos en la pgina 212
Antes de empezar
Establezca las asignaciones de las unidades de los discos de almacenamiento. Consulte el manual correspondiente de la Coleccin de administracin del hardware de Oracle Solaris Cluster para realizar una instalacin inicial del dispositivo de almacenamiento. Rellene las siguientes plantillas de planificacin de la configuracin.
Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273 Hoja de trabajo para la configuracin de grupos de dispositivos en la pgina 277 Hoja de trabajo para la configuracin del administrador de volmenes en la pgina 279
Si no ha creado grupos de discos raz, asegrese de que haya reiniciado cada nodo en el que se haya instalado VxVM, como se indica en el Paso 12 de Cmo instalar el software Veritas Volume Manager en la pgina 201.
1 2
Convirtase en superusuario en el nodo que sea el propietario del grupo de discos. Cree los grupos de discos y los volmenes de V xV M . Tenga en cuenta las siguientes instrucciones especiales:
SPARC: Si va a instalar Oracle Real Application Clusters, cree grupos de discos compartidos de VxVM mediante la funcin de clster de VxVM. Tenga en cuenta las directrices e instrucciones que aparecen en Cmo crear un grupo de discos compartidos de VxVM para la base de datos Oracle RAC de Gua del servicio de datos de Oracle Solaris Cluster para Oracle Real Application Clusters (RAC) y en Veritas Volume Manager Administrator's ReferenceGuide. De lo contrario, cree los grupos de discos de VxVM mediante los procedimientos estndar descritos en la documentacin de VxVM.
Nota Puede utilizar el Registro de reas modificadas (DRL) para reducir el tiempo de
recuperacin de los volmenes en caso de producirse un error en el nodo. Sin embargo, es posible que DRL reduzca el rendimiento de E/S.
3
En los grupos de discos locales, establezca la propiedad localonly y agregue un nico nodo a la lista de nodos del grupo de discos.
Nota Un grupo de discos que se haya configurado slo como local no proporciona
b. Seleccione el elemento de men "Device groups and volumes" (Grupos de dispositivos y volmenes). c. Seleccione el elemento de men "Set localonly on a V xV Mdisk group" (Establecer "localonly" en un grupo de dispositivos de V xV M ). d. Siga las instrucciones para establecer la propiedad localonly y especificar el nico nodo que controlar de forma exclusiva el grupo de discos. Slo se permite que un nodo controle cada vez el grupo de discos. Puede cambiar posteriormente el nodo configurado como maestro. e. Cuando haya finalizado, salga de la utilidad clsetup .
Pasos siguientes
SPARC: Si la funcin de clster de VxVM est habilitada, vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212. Si ha creado grupos de discos que no son locales y la funcin de clster de VxVM no est habilitada, registre los grupos de discos como grupos de dispositivos de Oracle Solaris Cluster. Para ello, vaya a Cmo registrar un grupo de discos en la pgina 210.
S i ha creado grupos de discos slo locales, vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212.
de discos locales, no realice este procedimiento. En su lugar, contine con la seccin Cmo verificar la configuracin del grupo de discos en la pgina 212.
1 2
Convirtase en superusuario en un nodo de clster. Registre el grupo de discos global como grupo de dispositivos de Oracle Solaris Cluster. a. Inicie la utilidad clsetup .
phys-schost# clsetup
b. Seleccione el elemento de men "Device groups and volumes" (Grupos de dispositivos y volmenes). c. Seleccione el elemento de men "Register a V xV Md isk group" (Registrar un grupo de discos de V xV M ). d. Siga las instrucciones para especificar el grupo de discos de V xV Mque desea registrar como grupo de dispositivos de Oracle Solaris Cluster. e. Cuando haya terminado, salga de la utilidad clsetup . f. Exporte y vuelva a importar cada grupo de discos locales.
phys-schost# vxdg deport diskgroup # vxdg import dg
h. Compruebe que cada grupo de discos locales presente el estado "slo local". Si el valor de la propiedad de los indicadores del grupo de discos es nogdl, el grupo de discos se ha configurado correctamente para el acceso slo local.
phys-schost# vxdg lis t diskgroup | grep flags flags: nogdl
Asegrese de que se haya registrado el grupo de dispositivos. Busque en la informacin de dispositivos de disco el nuevo disco que se muestra mediante el comando siguiente.
phys-schost# cldevicegroup status
Vaya a Cmo verificar la configuracin del grupo de discos en la pgina 212. Desbordamiento de la pila: si se produce un desbordamiento de la pila al establecer en lnea el grupo de recursos, es posible que el valor predeterminado del tamao de la pila de subprocesos sea insuficiente. En cada nodo, agregue la entrada set cl_haci:rm_thread_stacksize=0x tamao al archivo /etc/system , donde tamao hace referencia a un nmero superior a 8000, que es el valor predeterminado. Cambios de configuracin : si cambia la informacin de configuracin para un grupo de dispositivos de VxVM o sus volmenes, deber registrar estos cambios mediante la utilidad clsetup . Entre los cambios de configuracin, se incluyen la adicin o eliminacin de volmenes y el cambio del grupo, el propietario o los permisos de los volmenes existentes. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos para registrar los cambios de configuracin realizados en un grupo de dispositivos de VxVM.
1 2
Convirtase en superusuario en un nodo del clster. Determine los nmeros menores que estn en uso.
phys-schost# ls -l /global/.devices/node@ 1/dev/vx/dsk/*
Seleccione otro mltiplo de 1000 que no se est utilizando para utilizarlo como nmero menor bsico del nuevo grupo de discos. Asigne el nuevo nmero menor bsico al grupo de discos.
phys-schost# vxdg reminor diskgroup base-minor-number
Ejemplo 52
Pasos siguientes
Registre el grupos de discos como grupo de dispositivos de Oracle Solaris Cluster. Para ello, vaya a Cmo registrar un grupo de discos en la pgina 210.
1 2
Compruebe que todos los grupos de discos se hayan configurado correctamen te. Asegrese de que se cumplan los siguientes requisitos:
El grupo de discos raz incluye nicamente discos locales. Todos los grupos de discos y los grupos de discos locales existentes slo se importan en el nodo primario actual.
Compruebe que todos los grupos de discos se hayan registrado como grupos de dispositivos de Oracle Solaris Cluster y que estn en lnea.
phys-schost# cldevicegroup status
Almacene el archivo en una ubicacin que se encuentre fuera del clster. Si realiza cambios en la configuracin del disco, ejecute este comando para capturar la configuracin modificada. Si un disco presenta errores y es necesario sustituirlo, esta informacin puede utilizarse para restaurar la configuracin de particin del disco. Para obtener ms informacin, consulte la pgina de comando man prtvtoc (1M).
8
(Opcional) Realice una copia de seguridad de la configuracin del clster. Si dispone de una copia de seguridad de la configuracin del clster, le resultar ms sencillo recuperarla cuando sea necesario. Para obtener ms informacin, consulte Copias de seguridad de la configuracin del clster de Gua de administracin del sistema de Oracle Solaris Cluster.
M s informacin
grupos de dispositivos de VxVM El software Oracle Solaris Cluster administra los grupos de discos de VxVM que se han registrado como grupos de dispositivos. Una vez que se haya registrado un grupo de discos como grupo de dispositivos, no debe importar o exportar nunca el grupo de discos de VxVM mediante los comandos de VxVM. El software Oracle Solaris Cluster puede administrar todos los casos en los que se deban importar o exportar los grupos de dispositivos. Consulte Administracin de grupos de dispositivos de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos de administracin de grupos de dispositivos. Grupos de discos locales: el software Oracle Solaris Cluster no administra los grupos de discos locales de VxVM. Utilice los comandos de VxVM para administrar los grupos de discos locales del mismo modo que en un sistema sin clsteres.
Errores ms frecuentes
Si la salida del comando cldevicegroup status incluye grupos de discos locales, los grupos que se muestran no se han configurado correctamente para el acceso slo local. Regrese a Cmo crear un grupo de discos en la pgina 208 para volver a configurar el grupo de discos locales. Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Pasos siguientes
Para crear sistemas de archivos del clster, vaya a Cmo crear sistemas de archivos del clster en la pgina 217. Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223.
SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.
Antes de empezar
Asegrese de que slo haya sistemas de archivos raz de Solaris en el disco raz. Entre ellos, se incluyen los sistemas de archivos raz (/) y de intercambio, el espacio de nombres de los dispositivos globales, /usr , /var , /opt y /home. R ealice una copia de seguridad de los sistemas de archivos distintos a los sistemas de archivos raz de Solaris que residen en el disco raz y, a continuacin, suprmalos del disco raz.
1 2
Convirtase en superusuario en el nodo que desea desencapsula r. Extraiga todos los grupos de recursos y de dispositivos del nodo.
phys-schost# clnode evacuate from-node
from-node Especificael nombre del nodo del que se desean mover los grupos de recursos o dispositivos. Determine el nmero de ID del nodo.
phys-schost# clinfo -n
Consulte el archivo /etc/vfstab y determine el volumen de V xV Mque se corresponde con el sistema de archivos de los dispositivos globales.
phys-schost# vi /etc/vfstab #device device mount FS fsck #to mount to fsck point type pass # #N O T E :volume rootdisk xN vol (/global/.devices/node@ #partition cNtXdYsZ mount at boot mount options
N) encapsulated
Suprima del grupo de discos raz el volumen de V xV Mque se corresponda con el sistema de archivos de los dispositivos globales.
phys-schost# vxedit -g rootdiskgroup -rf r m rootdis kxNvol Caution No almacene otros datos que no sean las entradas de los dispositivos globales del
sistema de archivos. Todos los datos del sistema de archivos de los dispositivos globales se eliminan al suprimir el volumen de VxVM. Slo se restauran los datos relacionados con las entradas de los dispositivos globales una vez desencapsulado el disco raz.
7
Utilice el comando format(1M) para agregar una particin de 512 M B al disco raz a fin de utilizarla para el sistema de archivos de los dispositivos globales.
Consejo Utilice el mismo segmento que se asign al sistema de archivos de los
dispositivos globales antes de encapsular el disco raz, como se especificaen el archivo /etc/vfstab .
9
10
11
En el archivo /etc/vfstab , sustituya los nombres de ruta de la entrada del sistema de archivos de los dispositivos globales por la ruta de D ID identificada en el Paso 10. La entrada original debera presentar un aspecto similar al siguiente.
xN vol /global/.devices/node@ N ufs 2 no global
La entrada modificada que utiliza la ruta de DID debera presentar un aspecto similar al siguiente.
/dev/did/dsk/d NsX /dev/did/rdsk/d NsX /global/.devices/node@ 12 N ufs 2 no global
13
Desde un nodo del clster, vuelva a llenar el sistema de archivos de los dispositivos globales con los nodos de los dispositivos de disco bsicos y de Solaris Volume Manager.
phys-schost# cldevice populate
En cada nodo, asegrese de que el comando cldevice populate haya finalizado el procedimiento antes de continuar con el paso siguiente. El comando cldevice populate se ejecuta de forma remota en todos los nodos, aunque se haya emitido slo desde un nodo. Para determinar si ha concluido el procesamiento del comando cldevice populat e, ejecute el comando siguiente en todos los nodos del clster.
phys-schost# ps -ef | grep scgdevs
15
Reinicie el nodo.
phys-schost# shutdown -g0 -y -i6
16
Repita este procedimiento en cada nodo del clster para desencapsular el disco raz en todos ellos.
A P T U L O
un servicio de datos. Para obtener informacin acerca de la decisin entre crear un sistema de archivos del clster o un sistema de archivos local de alta disponibilidad para admitir un servicio de datos concreto, consulte el manual de dicho servicio. Para obtener informacin general acerca de la creacin de un sistema de archivos local de alta disponibilidad, consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide. No se puede agregar un sistema de archivos del clster a un clster de zona.
Antes de empezar
Asegrese de haber instalado los paquetes de software del SO Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalacin del software en la pgina 61.
217
Asegrese de haber establecido el clster o el nodo de clster nuevo, tal como se describe en Establecimiento de un nuevo clster global o de un nuevo nodo de clster global en la pgina 86. S i utiliza un administrador de volmenes, asegrese de que el software de administracin de volmenes est instalado y configurado. Para conocer los procedimientos de instalacin del administrador de volmenes, consulte Configuracin del software Solaris Volume Manager en la pgina 171 o Instalacin y configuracin del software VxVM en la pgina 199.
Nota Si ha agregado un nodo nuevo a un clster que utiliza VxVM, debe realizar una de
Instale VxVM en ese nodo. Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultnea con VxVM.
Siga los procedimientos descritos en Cmo instalar el software Veritas Volume Manager en la pgina 201 para llevar a cabo las tareas necesarias.
Determine las opciones de montaje que se van a utilizar en cada sistema de archivos del clster que desee crear. Consulte Seleccin de las opciones de montaje para los sistemas de archivos del clster en la pgina 50.
Convirtase en superusuario en un nodo de clster. Lleve a cabo este procedimiento desde la zona global si no hay zonas globales configuradas en el clster.
Consejo Para crear sistemas de archivos con mayor rapidez, convirtase en superusuario en
el nodo principal del dispositivo global para el que desea crear un sistema de archivos.
2
Compruebe que haya especificado el nombre del dispositivo de disco correcto. Si se especifica un nombre equivocado, podra borrar datos que no tuviera previsto eliminar.
La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_disco_bsico . Cada administrador de volmenes aplica sus propias convenciones de asignacin de nombres.
218 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
Dispositivo de disco bsico d1 dentro del conjunto de discos nfs Dispositivo de disco bsico vol01 dentro del grupo de discos oradg Dispositivo de disco bsico d1s3
Para crear un sistema de archivos Sistema de archivos de Veritas (V xFS), siga los procedimientos que se indican en la documentacin de VxFS.
Cree un directorio de puntos de montaje en cada nodo del clster para el sistema de archivos de dicho clster. Todos los nodos deben tener un punto de montaje, aunque no se acceda al sistema de archivos de clster en un nodo concreto.
Consejo Para facilitar la administracin, cree el punto de montaje en el directorio
/global/ grupo_dispositivos /. Esta ubicacin permite distinguir fcilmente los sistemas de archivos de clster disponibles de forma global de los sistemas de archivos locales.
phys-schost# mkdir -p /global /device-group /mountpoint /
grupo_dispositivos punto_montaje
Nombre del directorio correspondiente al nombre del grupo de dispositivos que contiene el dispositivo. Nombre del directorio en el que se monta el sistema de archivos de clster.
En cada uno de los nodos del clster, agregue una entrada en el archivo /etc/vfstab para el punto de montaj e. Consulte la pgina de comando man vfstab(4) para obtener informacin detallada.
Nota Si hay zonas no globales configuradas en el clster, monte los sistemas de archivos
de clster de la zona global en una ruta del directorio root de la zona global. a. Especifique en cada entrada las opciones de montaje requeridas para el tipo de sistema de archivos que utilice. b. Para montar de forma automtica el sistema de archivos de clster, establezca el campo mountat boot en yes .
219
c. Compruebe que la informacin de la entrada /etc/vfstab de clster sea idntica en todos los nodos. d. Compruebe que las entradas del archivo /etc/vfstab los dispositivos en el mismo orden.
e. Compruebe las dependencias de orden de inicio de los sistemas de archivos. Por ejemplo, fjese en la situacin hipottica siguiente: phys-schost-1 monta el dispositivo de disco d0 en /global/oracle/ y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs/ . Con esta configuracin, phys-schost-2 slo puede iniciar y montar /global/oracle/logs/ cuando phys-schost-1 inicie y monte /global/oracle/
5
La utilidad de comprobacin de la configuracin verifica la existencia de los puntos de montaje. Adems, comprueba que las entradas del archivo /etc/vfstab sean correctas en todos los nodos del clster. Si no hay ningn error, el comando no devuelve nada. Para obtener ms informacin, consulte la pgina de comando man cluster (1CL).
6
Para sistemas de archivos U FS,monte el sistema de archivos de clster desde cualquier nodo del clster. Para V xFS,monte el sistema de archivos de clster desde el elemento maestro del grupo_dispositivos , para asegurarse de que el montaje del sistema de archivos se efecte correctamen te. Asimismo, desmonte un sistema de archivos de VxFS desde el elemento maestro del grupo_dispositivos , para asegurarse de que el sistema de archivos se desmonte correctamente.
Nota Para administrar un sistema de archivos de clster VxFS en un entorno de Oracle
Solaris Cluster, ejecute los comandos de administracin slo desde el nodo principal en que est montado el sistema de archivos de clster VxFS.
7
Compruebe que el sistema de archivos de clster est montado en todos los nodos de dicho clster. Puede utilizar los comandos df o mount para enumerar los sistemas de archivos montados. Para obtener ms informacin, consulte las pginas de comando man df(1M) o mount(1M).
220
Se puede obtener acceso a los sistemas de archivos del clster desde la zona global y desde la zona no global.
Ejemplo 61
Pasos siguientes
Determine cul de las tareas de la lista que se muestra a continuacin corresponde a la siguiente tarea que se realizar en la configuracin de su clster. Si necesita realizar ms de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Para crear zonas no globales en un nodo, vaya a Cmo crear una zona no global en un nodo del clster global en la pgina 223. SPARC: Si desea configurar Sun Management Center para que supervise el clster, consulte SPARC: Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 253. Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.
221
222
A P T U L O
Configuracin de una zona no global en un nodo del clster global en la pgina 223 Configuracin de un clster de zona en la pgina 229
Cmo crear una zona no global en un nodo del clster global en la pgina 223 Cmo configurar un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales en la pgina 227
de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. Puede configurar una zona no global de contenedores Solaris, denominada simplemente zona, en un nodo del clster mientras el nodo se inicia en el modo de clster o en el modo sin clster.
223
S i crea una zona mientras el nodo se inicia en el modo sin clster, el software del clster detecta la zona cuando el nodo se une al clster. S i crea o suprime una zona mientras el nodo se encuentra en el modo de clster, el software del clster cambia de forma dinmica su lista de zonas que pueden controlar los grupos de recursos.
Antes de empezar
Planifique la configuracin de la zona no global. Tenga en cuenta los requisitos y las restricciones que se describen en Directrices para zonas no globales en un clster global en la pgina 22. Debe disponer de la siguiente informacin:
El nmero total de zonas no globales que va a crear. El adaptador pblico y la direccin IP pblica que utilizar cada zona. La ruta de cada zona. Esta ruta debe ser un sistema de archivos local, no un sistema de archivos del clster ni uno local de alta disponibilidad. Uno o varios de los dispositivos que deben aparecer en cada zona. (Opcional) El nombre que asignar a cada zona.
Si asigna a la zona una direccin IP privada, asegrese que las direcciones IP privadas adicionales que va a configurar se encuentren en el intervalo de direcciones IP privadas del clster. Utilice el comando cluster show-netprops para mostrar la configuracin de red privada actual. Si el intervalo de direcciones IP actual no es suficiente para admitir el uso de las direcciones IP privadas adicionales que va a configurar, consulte los procedimientos descritos en la seccin Cmo cambiar la configuracin de red privada al agregar nodos o redes privadas en la pgina 128 para volver a configurar este intervalo.
Nota Puede desactivar funciones de clster de una determinada zona no global, con el fin
de que un usuario root registrado en estas zonas no pueda descubrir ni interrumpir el funcionamiento del clster. Para obtener instrucciones, consulte How to Deny Cluster Services For a Non-Global Zone de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide y How to Allow Cluster Services For a Non-Global Zone de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide. Para obtener ms informacin, consulte Componentes de zonas de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris.
1
Convirtase en superusuario en el nodo del clster global en el que vaya a crear un nodo que no sea de votacin. Debe encontrarse en la zona global.
Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
224
Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestin de servicios (SM F)estn en lnea. Si los servicios todava no estn en lnea para un nodo, espere hasta que cambie el estado y aparezca como en lnea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE S T IM E F M R I online 17:52:55 svc:/milestone/multi-user-server:default
de grupos de recursos en un nodo del clster global que no sea de votacin. Siga los procedimientos descritos en la documentacin de Solaris: a. Realice los procedimientos descritos en Captulo 18, Planificaciny configuracin de zonas no globales (tareas) de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. b. Realice los procedimientos descritos en la seccin Instalacin e inicio de zona s de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. c. Realice los procedimientos descritos en la seccin Cmo iniciar una zona de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris.
4
(Opcional) En una zona de direcciones IP compartidas, asigne una direccin IP y un nombre de host privado a la zona. El siguiente comando permite seleccionar y asignar una direccin IP disponible del intervalo de direcciones IP privadas del clster. Tambin permite asignar el nombre de host privado (o alias de host) especificado a la zona y a la direccin IP privada indicada.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone
Especifica una propiedad. Especificael nombre de host privado o el alias de host de la zona. El nombre del nodo.
zona
6
Realice una configuracin inicial de zonas internas. Siga los procedimientos descritos en la seccin Configuracin inicial de la zona interna de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. Seleccione uno de los siguientes mtodos:
En el nodo que no es de votacin, modifique el archivo nsswitch.conf . Estos cambios permiten a la zona realizar bsquedas de direcciones IP y nombres de host especficos del clster. a. Inicie una sesin en la zona.
phys-schost# zlogin -c zonename
para modificarlo.
c. Agregue el conmutador cluster al comienzo de las bsquedas de las entradas hosts y netmasks y, a continuacin, el conmutador files . Las entradas modificadas deberan presentar un aspecto similar al siguiente:
. . . hosts: . . . netmasks: . . . cluster files cluster files nis [NOTFOUND=return] nis [NOTFOUND=return]
d. En las entradas restantes, asegrese de que el conmutador files es el primero que se muestra en la entrada. e. Salga de la zona.
8
Si ha creado una zona de direcciones IP exclusivas, configure los grupos IPM P en cada archivo /etc/hostname. interfaz que se encuentre en esa zona. Debe configurar un grupo de IPMP para cada adaptador de red pblica que se utilice para el trfico de servicios de datos en la zona. Esta informacin no se hereda de la zona global. Consulte Redes pblicas en la pgina 28 para obtener ms informacin sobre cmo configurar grupos IPMP en un clster.
Configure las asignaciones de nombre y direccin para todos los nombres de host lgicos que utilice la zona. a. Agregue las asignaciones de nombre y direccin al archivo /etc/inet/hosts Esta informacin no se hereda de la zona global. en la zona.
Para instalar una aplicacin en una zona no global, utilice el mismo procedimiento que usara para un sistema independiente. Consulte la documentacin de instalacin de la aplicacin para obtener informacin sobre los procedimientos para instalar el software en una zona no global. Consulte tambin Cmo aadir y eliminar paquetes y parches en un sistema Solaris con zonas instaladas (mapa de tareas) de Gua de administracin de sistemas:administracin de recursos y contenedoresde Oracle Solaris y zonas de Oracle Solaris. Para instalar y configurar un servicio de datos en una zona no global, consulte el manual de Oracle Solaris Cluster correspondiente a los servicios de datos individuales.
Cmo configurar un recurso de HAStoragePluspara un sistema de archivos del clster utilizado por zonas no globales
Utilice este procedimiento para permitir que una zona no global de la marca native configurada en un nodo del clster utilice un sistema de archivos del clster.
Nota Este procedimiento slo debe utilizarse con la marca native de zonas no globales. No
se puede realizar esta tarea con ninguna otra marca de zona no global como, por ejemplo, la marca solaris8 o cluster que se utiliza para los clsteres de zona.
1
En un nodo del clster, convirtase en superusuario o asuma una funcin que proporcione la autorizacin de R BAC solaris.cluster.modify .
2
Cree un grupo de recursos con una lista de nodos de zonas no globales de la marca native . Utili ce el siguiente comando para crear un grupo de recursos de migracin tras error:
phys-schost# clresourcegroup create -n node:zone[,...] resource-group
-n nodo:zona Especifica los nombres de las zonas no globales de la lista de nodos del grupo de recursos.
En cada nodo del clster global en el que resida una zona no global de la lista de nodos, agregue la entrada del sistema de archivos del clster al archivo /etc/vfstab . Las entradas del archivo /etc/vfstab de un sistema de archivos del clster deben contener la palabra clave global en las opciones de montaje. Consulte Sample Entries in /etc/vfstab for Cluster File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.
Cree un recurso de HAStoragePlus y defina los puntos de montaje del sistema de archivos.
phys-schost# clresource create -g resource-group -t SUN W .H AStoragePlus \ -p FileSystemMountPoints=" mount-point-list" hasp-resource
-g grupo_recursos Especificael nombre del grupo de recursos al que se ha agregado el nuevo recurso. -p FileSystemMountPoints="lista_puntos_montaje" Especifica uno o varios puntos de montaje del sistema de archivos para el recurso. recurso_hasp El nombre del recurso de HAStoragePlus que ha creado. El recurso creado presenta el estado habilitado.
6
Agregue un recurso a grupo_recursosy establezca una dependencia para el recurso en recurso_hasp. Si va a agregar ms de un recurso al grupo de recursos, utilice un comando distinto para cada uno de ellos.
phys-schost# clresource create -g resource-group -t resource-type \ -p Network_resources_used= hasp-resource resource
-t tipo_recurso Especificael tipo para el que ha creado el recurso. -p Network_resources_used=recurso_hasp Indica que el recurso presenta una dependencia en el recurso de HAStoragePlus recurso_hasp.
Establezca en lnea y con el estado administrado el grupo de recursos que contiene el recurso HAStoragePlus.
phys-schost# clresourcegroup online -M resource-group
de
Configuracinde un recurso de HAStoragePlus para un sistema de archivos del clster utilizado por zonas no globales
En el siguiente ejemplo, se crea un grupo de recursos de migracin tras error, cfs-rg , para administrar el servicio de datos HA-Apache. La lista de nodos del grupo de recursos contiene dos zonas no globales, sczone1 en phys-schost-1 y sczone1 en phys-schost-2 . El grupo de recursos contiene un recurso de HAStoragePlus, hasp-rs , y un recurso de servicio de datos, apache-rs . El punto de montaje del sistema de archivos es /global/localfs/apache .
phys-schost-1# phys-schost-1#
cfs-rg
Add the cluster file system entry to the /etc/vfstab file on phys-schost1 phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global Add the cluster file system entry to the /etc/vfstab file on phys-schost2 phys-schost-2# vi /etc/vfstab . . . phys-schost-1# clresource create -g cfs-rg -t SUNW .H AStoragePlus \ -p FileSystemMountPoints="/global/local-fs/apache" hasp-rs phys-schost-1# clresource create -g cfs-rg -t SU N W .apache \ -p Network_resources_used=hasp-rs apache-rs phys-schost-1# clresourcegroup online -M cfs-rg
Informacin general de la utilidad clzonecluster en la pgina 230 Establecimiento del clster de zona en la pgina 230 Adicin de sistemas de archivos a un clster de zona en la pgina 240
El mbito de clster afecta a todo el clster de zona. El mbito de nodo slo afecta al nodo del clster de zona que se haya especificado. El mbito de recurso afecta a un nodo especfico o a todo el clster de zona en funcin del mbito indicado en el formulario de mbito de recurso. Slo se puede acceder a la mayora de los recursos desde el mbito de nodo. Los siguientes indicadores identifican el mbito:
clzc: zoneclustername:resource > clzc: zoneclustername :node: resource > cluster-wide setting node-specificsetting
Puede especificar cualquier parmetro de recurso de zonas de Solaris, as como parmetros especficos de los clster de zona, mediante la utilidad clzonecluster . Para obtener informacin sobre los parmetros que puede establecer en un clster de zona, consulte la pgina de comando man clzonecluster (1CL). Puede encontrar informacin adicional sobre los parmetros de recursos de zonas de Solaris en la pgina de comando man zonecfg (1M).
Cmo preparar Trusted Extensions para utilizar con clsteres de zona en la pgina 230 Cmo crear un clster de zona en la pgina 233
zona Este procedimiento prepara el clster global para que utilice la funcin Trusted
Extensions de Oracle Solaris con clsteres de zona y habilita la funcin Trusted Extensions. Si no tiene pensado habilitar Trusted Extensions, vaya a Cmo crear un clster de zona en la pgina 233.
Antes de empezar
Compruebe que el sistema operativo Solaris est instalado para admitir el uso del software Trusted Extensions. Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalacin de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicacin que vaya a instalar en el clster. El software Trusted Extensions no se incluye en el grupo de software de usuario final de Solaris. Consulte la seccin Cmo instalar el software de Solaris en la pgina 70 instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster.
Compruebe que disponga de un servicio de asignacin de nombres LDAP configurado para que Trusted Extensions pueda utilizarlo. Consulte el Captulo 5, Configuring LDAP for Trusted Extensions (Tasks) de Oracle Solaris Trusted Extensions Configuration Guide Revise las directrices de Trusted Extensions en un clster de zona. Consulte Directrices para Trusted Extensions en un clster de zona en la pgina 45.
1 2
Convirtase en superusuario en un nodo del clster global. Inhabilite las secuencias de comandos zoneshare y zoneunshare de Trusted Extensions. Las secuencias de comandoszoneshare y zoneunshare de Trusted Extensions permiten exportar directorios de inicio en el sistema. Una configuracin de Oracle Solaris Cluster no admite esta funcin. Inhabilite esta funcin sustituyendo cada secuencia de comandos con un vnculo simblico a la utilidad /bin/true . Hgalo en todos los nodos de clster global.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
Configure todas las direcciones IP compartidas de nombres de host lgicos que estn en el clster global. Consulte Run the txzonemgr Script de Oracle Solaris Trusted Extensions Configuration Guide.
Compruebe que la consola de administracin se haya definido en el archivo /etc/security/tsol/tnrhdb como admin_low.
ipaddress:admin_low
Compruebe que ningn archivo /etc/nombre_host. interfaz contenga la opcin -failover en una entrada. Elimine la opcin -failover en todas las entradas que la contengan.
Modifique el archivo /etc/security/tsol/tnrhdb para autorizar la comunicacin con componentes de clster globales. Utilice el asistente para plantillas de seguridad de Solaris Management Console como se explica en How to Construct a Remote Host Template de Oracle Solaris Trusted Extensions Administrator s Procedurespara llevar a cabo las tareas siguientes.
Cree una entrada para direcciones IP utilizadas por componentes de clster y asigne una plantilla de CIPSO a cada entrada. Agregue entradas para cada una de las direcciones IP siguientes que figuren en el archivo /etc/inet/hosts del nodo del clster global:
Cada direccin IP privada de nodo del clster global Todas las direcciones IP cl_privnet del clster global Cada direccin IP pblica de nombre de host lgico para el clster global Cada direccin IP pblica de direcciones compartidas para el clster global
Para obtener ms informacin sobre plantillas de CIPSO, consulte Configure the Domain of Interpretation de Oracle Solaris Trusted Extensions Configuration Guide.
7
Habilite el servicio SM Fde Trusted Extensions y reinicie el nodo del clster global.
phys-schost# svcadm enable -s svc:/system /labeld:default phys-schost# shutdown -g0 -y -i6
Para obtener ms informacin, consulte Enable Trusted Extensions de Oracle Solaris Trusted Extensions Configuration Guide.
8
Repita del Paso 1 al Paso 8 en el resto de los nodos del clster global. Si el servicio SMF est habilitado en todos los nodos de clster global, efecte los dems pasos de este procedimiento en cada nodo del clster global. Agregue la direccin IP del servidor LDA P habilitado para Trusted Extensions al archi vo/etc/inet/hosts de cada nodo del clster global. La zona global y los nodos de clster de zona utilizan el servidor LDAP.
10
11
Habilite el inicio de sesin remoto por parte del servidor LDA P en el nodo del clster global. a. En el archivo /etc/default/login b. Habilite el inicio de sesin remoto.
phys-schost# svcadm enable rlogin
c. Modifique el archivo /etc/pam.conf . Modifique las entradas de administracin de cuentas. Para ello, agregue un tabulador y escriba allow_remote o allow_unlabeled, como se muestra a continuacin.
other other 12 account requisite account required pam_roles.so.1 pam_unix_account.so.1 Tab allow_remote Tab allow_unlabeled
Compruebe que las entradas de bsqueda passwd y group tengan primero files en el orden de bsqueda.
. . . passwd: group: . . . files files ldap ldap
Compruebe que las entradas de bsqueda hosts y netmasks tengan primero cluster en el orden de bsqueda.
. . . hosts: . . . netmasks: . . . cluster cluster files files ldap ldap
13
Convierta el nodo del clster global en cliente LDAP. Consulte Make the Global Zone an LDAP Client in Trusted Extensions de Oracle Solaris Trusted Extensions Configuration Guide. Agregue usuarios de Trusted Extensions al archivo /etc/security/tsol/tnzonecfg . Utilice el asistente para agregar usuarios de Solaris Management Console como se explica en Creating Roles and Users in Trusted Extensions de Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases. Cree el clster de zona. Consulte Cmo crear un clster de zona en la pgina 233.
14
Pasos siguientes
Lea las directrices y los requisitos para crear un clster de zona. Consulte la seccin clsteres de zona en la pgina 43. Si el clster de zona va a utilizar Trusted Extensions, compruebe que Trusted Extensions se haya configurado y habilitado como se explica en Cmo preparar Trusted Extensions para utilizar con clsteres de zona en la pgina 230. Debe disponer de la siguiente informacin:
debe utilizarse el nombre de la etiqueta de seguridad de Trusted Extensions que el clster de zona utiliza como nombre. Cree un clster de zona diferente para cada etiqueta de seguridad de Trusted Extensions que vaya a utilizar.
La ruta de zona que los nodos del clster de zona utilizarn. Para obtener ms informacin, consulte la descripcin de la propiedad zonepath en Tipos de propiedades y recursos de Gua de administracin de sistemas:administracin de recursosy contenedoresde Oracle Solaris y zonas de Oracle Solaris. El nombre de cada nodo del clster global en el que se va a crear un nodo del clster de zona. El nombre de host pblico (o el alias de host) de la zona que asigne a cada nodo del clster de zona. La direccin IP de red pblica que utilice cada nodo del clster de zona. El nombre del adaptador de red pblica que cada nodo del clster de zona utilice para conectarse a la red pblica.
Asegrese de que el nodo del clster global se encuentre en el modo de clster. Si hay algn nodo en el modo sin clster, los cambios que realice se propagarn cuando el nodo se restablezca en el modo de clster. Por lo tanto, puede crear un clster de zona, incluso si algunos nodos del clster global se encuentran en el modo sin clster. Cuando estos nodos se restablezcan en el modo de clster, el sistema realizar las tareas de creacin de clster de zona en estos.
phys-schost# clnode status === Cluster Nodes === --- Node Status --Node N am e Status
--------phys-schost-2 phys-schost-1 3
------
Online Online
Si Trusted Extensions est habilitado, zoneclustername debe tener el mismo nombre que una etiqueta de seguridad de Trusted Extensions que tenga los niveles de seguridad que desee asignar al clster de zona. Estas etiquetas de seguridad se configuran en los archivos /etc/security/tsol/tnrhtp del clster global. Las zonas raz dispersas se crean de forma predeterminada. Para crear zonas raz completas, agregue la opcin -b al comando create .
configure zoneclustername
Set the zone path for the entire zone cluster clzc: zoneclustername> set zonepath=/zones/ zoneclustername Add the first node and specify node-specificsettings clzc: zoneclustername> add node clzc: zoneclustername :node> set physical-host= baseclusternode1 clzc: zoneclustername :node> set hostname=hostname1 clzc: zoneclustername :node> add net clzc: zoneclustername :node:net> set address=public_netaddr clzc: zoneclustername :node:net> set physical= adapter clzc: zoneclustername :node:net> end clzc: zoneclustername :node> end Add authorization for the public-network addressesthat the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc: zoneclustername> add sysid clzc: zoneclustername :sysid> set root_password=encrypted_password clzc: zoneclustername :sysid> end Save the configuration and exit the utility clzc: zoneclustername> commit clzc: zoneclustername> exit 4
Si Trusted Extensions est habilitado, defina el sistema de archivos /var/tsol/doors la propiedad del servicio de nombres en N O N. E
phys-schost-1# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername :fs> set dir=/var/tsol/doors
y defina
Si Trusted Extensions est habilitado, en cada nodo del clster global agregue o modifique las entradas siguientes en el archivo /zonas/ nombre_clster_zona/root/etc/sysidcfg .
phys-schost-1# clzonecluster configure zoneclustername clzc: zoneclustername> add sysid clzc: zoneclustername :sysid> set name_service=LDAP clzc: zoneclustername :sysid> set domain_name=domainorg.domainsuffix clzc: zoneclustername :sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc: zoneclustername :sysid> set proxy_password="proxypassword" clzc: zoneclustername :sysid> set profile= ldap-server clzc: zoneclustername :sysid> set profile_server= txldapserver_ipaddress clzc: zoneclustername :sysid> end clzc: zoneclustername> commit clzc: zoneclustername> exit 7
Compruebe la configuracin del clster de zona. El subcomando verify comprueba la disponibilidad de los recursos especificados.Si el comando clzonecluster verify se ejecuta satisfactoriamente, no se generar ninguna salida.
phys-schost-1# clzonecluster phys-schost-1# clzonecluster === Zone Clusters === --- Zone Cluster Status --N am e ---zone Node N am e --------basenode1 basenode2 Zone HostName Status -----------------zone-1 Offline zone-2 Offline Zone Status ----------Configured Configured verify zoneclustername status zoneclustername
"zoneclustername". . .
10
Si utiliza Trusted Extensions, complete las asignaciones de direcciones IP para el clster de zona. Efecte este paso en todos los nodos del clster de zona. a. En un nodo del clster global, visualice el ID del nodo.
phys-schost# cat /etc/cluster/nodeid N
b. Inicie sesin en un nodo de clster de zona en el mismo nodo del clster global. Compruebe que el servicio SMF se haya importado y que todos los servicios estn en funcionamiento antes de iniciar una sesin. c. Determine las direcciones IP utilizadas por este nodo de clster de zona para la interconexin privada. El software de clster asigna automticamente estas direcciones IP cuando el software de clster configura un clster de zona. En la salida de ifconfig -a, busque la interfaz lgica de clprivnet0 que pertenezca al clster de zona. El valor de inet es la direccin IP que se asign para permitir el uso de la interconexin privada de clster por parte de este clster de zona.
zc1# ifconfig
-a
lo0:3: flags=20010008c9<U P,LO O PBA CK ,RU N N IN G ,N O ARP,M U LT IC AST,IPv4,V mtu IRTU 8232 AL> index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<U P,BRO AD CAST,RU N N IN G,M U LT ICA ST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags= 9040843<U P,BR O A D C A ST ,R U N N IN G ,M U LT IC A ST ,D EPR EC A T ED ,IPv4,N O mtu FA 1500 ILO V index ER > 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<U P,BRO A D CAST,RU N N IN G,M U LT IC AST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<U P,B R O AD C A ST,R U N N IN G,M U LTIC AST,M U LTI_B C A ST ,PR IV mtu AT1500 E,IPv4> index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3 : flags=1009843<U P,B R O AD C A ST,R U N N IN G,M U LTIC AST,M U LTI_B C A ST ,PR IV mtu AT1500 E,IPv4> index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
El nombre de host de la interconexin privada es clusternode N-priv , donde N corresponde al ID del nodo del clster global
172.16.0.22 clusternod eN-priv
Utilice el asistente para plantillas de seguridad de Solaris Management Console como se explica en How to Construct a Remote Host Template de Oracle Solaris Trusted Extensions Administrator s Procedurespara llevar a cabo las tareas siguientes.
Cree una entrada para direcciones IP utilizadas por componentes de clster de zona y asigne una plantilla de CIPSO a cada entrada. Agregue entradas para cada una de las direcciones IP siguientes que figuren en el archivo /etc/inet/hosts del nodo de clster de zona:
Cada direccin IP privada de nodo de clster de zona Todas las direcciones IP cl_privnet del clster de zona Cada direccin IP pblica de nombre de host lgico para el clster de zona Cada direccin IP pblica de direcciones compartidas para el clster de zona
Para obtener ms informacin sobre plantillas de CIPSO, consulte Configure the Domain of Interpretation de Oracle Solaris Trusted Extensions Configuration Guide.
12
Una vez modificados todos los nodos de clster de zona, reinicie los nodos de clster global para inicializar los cambios en los archivos /etc/inet/hosts de clster de zona.
phys-schost# init -g0 -y -i6
13
Habilite el acceso de D N Sy rlogin en los nodos de clster de zona. Ejecute los comandos siguientes en cada nodo del clster de zona.
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
Ejemplo 72
Ejemplo 73
zone cluster "sczone ". . . phys-schost-1# clzonecluster boot sczone Waiting for zone boot commandsto complete on all the nodes of the zone cluster "sczone ". . . phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --N am e ---sczone Node N am e --------phys-schost-1 phys-schost-2 Zone HostName ------------zc-host-1 zc-host-2 Status -----Offline Offline Zone Status ----------Running Running
Pasos siguientes
Para agregar un sistema de archivos al clster de zona, vaya a Adicin de sistemas de archivos a un clster de zona en la pgina 240. Para agregar dispositivos de almacenamiento global al clster de zona, vaya a Adicin de dispositivos de almacenamiento a un clster de zona en la pgina 248.
para agregar un sistema de archivos local que se haya montado en un nodo del clster global, en un clster de zona. En su lugar, utilice el comando zonecfg del mismo modo que en un sistema independiente. El sistema de archivos local no debera estar bajo el control del clster. En esta seccin se describen los siguientes procedimientos:
Cmo agregar un sistema de archivos local a un clster de zona en la pgina 241 Cmo agregar un grupo de almacenamiento ZFS a un clster de zona en la pgina 242 Cmo agregar un sistema de archivos compartidos QFS a un clster de zona en la pgina 244 Cmo agregar un sistema de archivos de clster a un clster de zona en la pgina 246
Adems, si desea configurar un grupo de almacenamiento ZFS para que proporcione alta disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.
la seccin Cmo agregar un grupo de almacenamiento ZFS a un clster de zona en la pgina 242. Asimismo, para configurar un grupo de almacenamiento ZFS para que proporcione alta disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.
1
Convirtase en superusuario en un nodo del clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo del clster global.
En el clster global, cree el sistema de archivos que desee utilizar en el clster de zona. Asegrese de que el sistema de archivos se haya creado en los discos compartidos.
dir= punto_montaje Especificael punto de montaje del sistema de archivos. special= nombre_dispositivo_disco Especificael nombre del dispositivo de disco. raw=nombre_dispositivo_disco_bsico Especificael nombre del dispositivo de disco bsico. type=tipo_FS Especificael tipo del sistema de archivos.
Nota Habilite el registro sistemas de archivos UFS y VxFS.
Ejemplo 74
Pasos siguientes
Configure el sistema de archivos para que proporcione alta disponibilidad mediante un recurso de HAStoragePlus. Este recurso administra el montaje del sistema de archivos en el nodo del clster de zona que aloja actualmente las aplicaciones que se han configurado para que utilicen el sistema de archivos. Consulte Enabling Highly Available Local File Systems de Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.
disponibilidad en un clster de zona, consulte How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFSHighly Available de Oracle Solaris Cluster Data Services Planning and Administration Guide.
1
Convirtase en superusuario en un nodo del clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo de la zona global. 2
a su vez a todos los nodos del clster de zona. Consulte Gua de administracin de Oracle Solaris ZFS para obtener informacin sobre los procedimientos de creacin de un grupo ZFS.
3
Ejemplo 75
Pasos siguientes
Configure el grupo de almacenamiento ZFS para que proporcione alta disponibilidad mediante un recurso de HAStoragePlus. Este recurso administra el montaje de los sistemas de archivos del grupo en el nodo del clster de zona que aloja actualmente las aplicaciones que se han configurado para que utilicen el sistema de archivos. Consulte Enabling Highly Available
Local File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.
de zona
Realice este procedimiento para agregar un sistema de archivos compartidos Sun QFS a fin de que lo utilice un clster de zona.
Nota Actualmente slo se admite el uso de sistemas de archivos compartidos QFS en los
clsteres configurados con Oracle Real Application Clusters (RAC). En los clsteres que no estn configurados con Oracle RAC, puede utilizar un sistema de archivos QFS de un solo equipo que se haya configurado como sistema de archivos local de alta disponibilidad.
1
Convirtase en superusuario en un nodo de votacin de clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo de votacin de
clster global.
2
En el clster global, configure el sistema de archivos compartidos Q FS que desee utilizar en el clster de zona. Siga los procedimientos para sistemas de archivos compartidos descritos en Configuring Sun QFS File Systems With Sun Cluster. En cada nodo del clster global que aloje un nodo del clster de zona, agregue una entrada al archivo /etc/vfstab del sistema de archivos que desee montar en el clster de zona.
phys-schost# vi /etc/vfstab
Si se agrega un sistema de archivos compartidos Q FS como un sistema de archivos de bucle invertido a un clster de zona, vaya al Paso 6. Agregue el sistema de archivos a la configuracin del clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername:fs> set dir=mountpoint clzc: zoneclustername :fs> set special=QFSfilesystemname clzc: zoneclustername :fs> set type=samfs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit
Vaya al Paso 7.
6
Configure el sistema de archivos Q FS como sistema de archivos de bucle invertido para el clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs
clzc: zoneclustername :fs> set dir= lofs-mountpoint clzc: zoneclustername :fs> set special= QFS-mountpoint clzc: zoneclustername :fs> set type=lofs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit 7
Ejemplo 76
Ejemplo 77
Adicinde un sistema de archivos compartidos Q FScomo sistema de archivos de bucle invertido en un clster de zona
En el siguiente ejemplo, se muestra el sistema de archivos compartidos con mountpoint/db_qfs/Data1, que se ha agregado al clster de zona sczone. El sistema de archivos est disponible para un clster de zona mediante el mecanismo de montaje de
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: cluster-control: . . . show -v sczone fs /db_qfs/Data1 Data-cz1 lofs [] [true]
Convirtase en superusuario en un nodo de votacin de clster global que aloje el clster de zona.
Nota Realice todos los pasos de este procedimiento desde un nodo de votacin de
clster global.
2
En el clster global, configure el sistema de archivos compartidos de clster que desee utilizar en el clster de zona. En cada nodo del clster global que aloje un nodo del clster de zona, agregue una entrada al archivo /etc/vfstab del sistema de archivos que desee montar en el clster de zona.
phys-schost# vi /etc/vfstab . . . /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
Configure el sistema de archivos de clster como sistema de archivos de bucle invertido para el clster de zona.
phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add fs clzc: zoneclustername :fs> set dir=zonecluster-lofs-mountpoint
clzc: zoneclustername :fs> set special=globalcluster-mountpoint clzc: zoneclustername :fs> set type=lofs clzc: zoneclustername :fs> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit
dir=zonecluster-lofs-mountpoint Especificael punto de montaje de sistema de archivos para LOFS con el fin de que el clster de zona pueda acceder al sistema de archivos de clster. special=globalcluster-mountpoint Especificael punto de montaje de sistema de archivos del sistema de archivos de clster original en el clster global. Para obtener ms informacin sobre cmo crear sistemas de archivos de bucle invertido, consulte How to Create and Mount an LOFS File System de System Administration Guide: Devices and File Systems.
5
Ejemplo 78
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster . . . Resource Name: dir: special: raw: type: options: show -v sczone fs /zone/apache /global/apache lofs []
. . .
cluster-control:
true
Pasos siguientes
Configure el sistema de archivos de clster para que est disponible en el clster de zona mediante un recurso de HAStoragePlus. El recurso de HAStoragePlus se administra mediante el montaje del sistema de archivos en el clster global y, posteriormente mediante un montaje en bucle invertido en los nodos de clster de zona que alojan las aplicaciones configuradas para utilizar el sistema de archivos. Para obtener ms informacin, consulte Configuring an HAStoragePlus Resource for Cluster File Systems de Oracle Solaris Cluster Data Services Planning and Administration Guide.
Cmo agregar un metadispositivo individual a un clster de zona (Solaris Volume Manager) en la pgina 248 Cmo agregar un conjunto de discos a un clster de zona (Solaris Volume Manager) en la pgina 250 Cmo agregar un dispositivo DID a un clster de zona en la pgina 251 Cmo agregar un dispositivo de disco bsico a un clster de zona en la pgina 252
Realice este procedimiento para agregar un metadispositivo individual de un conjunto de discos de &SolarisVolumeManager a un clster de zona.
1
Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el conjunto de discos que contiene el metadispositivo que se va a agregar al clster de zona y determine si se encuentra en lnea.
phys-schost# cldevicegroup status
Determine el nmero de conjunto que se corresponda con el conjunto de discos que se va a agregar.
phys-schost# ls -l /dev/md/ diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/ setnumber
Agregue el metadispositivo que utilizar el clster de zona. Debe utilizar una sesin add device diferente para cada entrada set match=.
Nota Se utiliza un asterisco (*) como carcter comodn en el nombre de ruta. phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/diskset/*dsk/metadevice clzc: zoneclustername :device> end clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/shared/setnumber/*dsk/ metadevice clzc: zoneclustername :device> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit
match=/dev/md/ conjunto_discos /*dsk/ metadispositivos Especifica la ruta lgica completa del metadispositivo. match=/dev/md/shared/ N/*dsk/ metadispositivo Especifica la ruta fsica completa del nmero del conjunto de discos.
6
Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername
Ejemplo 79
Volume Manager)
Realice este procedimiento para agregar un conjunto de discos completo de &SolarisVolumeManager a un clster de zona.
1
Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el conjunto de discos que se va a agregar al clster de zona y determine si se encuentra en lnea.
phys-schost# cldevicegroup status
Determine el nmero de conjunto que se corresponda con el conjunto de discos que se va a agregar.
phys-schost# ls -l /dev/md/ diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/ setnumber
Agregue el conjunto de discos que utilizar el clster de zona. Debe utilizar una sesin add device diferente para cada entrada set match=.
Nota Se utiliza un asterisco (*) como carcter comodn en el nombre de ruta. phys-schost# clzonecluster configure zoneclustername clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/diskset/*dsk/* clzc: zoneclustername :device> end clzc: zoneclustername> add device clzc: zoneclustername :device> set match=/dev/md/shared/setnumber/*dsk/* clzc: zoneclustername :device> end clzc: zoneclustername> verify clzc: zoneclustername> commit clzc: zoneclustername> exit
match=/dev/md/ conjunto_discos /*dsk/* Especifica la ruta lgica de dispositivo completa del conjunto de discos. match=/dev/md/shared/ N/*dsk/* Especifica la ruta fsica completa del nmero del conjunto de discos.
6
Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername
Ejemplo 710
Convirtase en superusuario en un nodo del clster global que aloje el clster de zona. Realice todos los pasos de este procedimiento desde un nodo del clster global. Identifique el dispositivo D IDque se va a agregar al clster de zona. El dispositivo que se va a agregar debe estar conectado a todos los nodos del clster de zona.
phys-schost# cldevice list -v
Reinicie el clster de zona. Este cambio se aplicar una vez que se haya reiniciado el clster de zona.
phys-schost# clzonecluster reboot zoneclustername
Ejemplo 711
Utili ce el comando zonecfg para exportar los dispositivos de disco bsicos (cNtXdYsZ) a un nodo del clster de zona del mismo modo que para otras marcas de zonas no globales. Estos dispositivos no estarn bajo el control del comando clzonecluster , pero se considerarn dispositivos locales del nodo. Consulte Cmo importar dispositivos bsicos y de bloques utilizando zonecfg de Gua de administracin de sistemas:administracin de recursos y contenedores deOracle Solaris y zonas de Oracle Solaris para obtener ms informacin sobre cmo exportar dispositivos de disco bsicos a una zona no global.
A P T U L O
En este captulo, se proporcionan directrices y procedimientos para instalar el mdulo de Oracle Solaris Cluster en la interfaz grfica de usuario (GUI) de Sun Management Center .
SPA R C : Instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center
En esta seccin se proporcionan la informacin y los procedimientos necesarios para instalar el software para el mdulo de Oracle Solaris Cluster en Sun Management Center . El mdulo de Oracle Solaris Cluster para Sun Management Center permite utilizar Sun Management Center para supervisar el clster. La tabla siguiente muestra las tareas que deben efectuarse para instalar el software de mdulos Oracle Solaris Clusterpara Sun Management Center . Realice los procedimientos en el orden indicado.
TA B L A 81 Tarea
Mapa de tareas: instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center
Instrucciones
Documentacin de Sun Management Center SPARC: Requisitos de instalacin para la supervisin de Oracle Solaris Cluster en la pgina 254 SPARC: Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center en la pgina 255 SPARC: Cmo iniciar Sun Management Center en la pgina 256
Instale los paquetes del mdulo de Oracle Solaris Cluster. Inicie los procesos del agente, la consola y el servidor de Sun Management Center .
253
Agregue cada uno de los nodos del clster al objeto de host del agente de Sun Management Center .
SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center en la pgina 257
254
SPA R C Instalacin : del mdulo de OracleSolaris Cluster para Sun Management Center
TA B L A81 Tarea
Mapa de tareas: instalacin del mdulo de Oracle Solaris Cluster para Sun Management Center (Continuacin)
Instrucciones
Cargue el mdulo de Oracle Solaris Cluster para iniciar la supervisin del clster.
Requisitos de espacio: asegrese de que dispone de 25 MB de espacio libre en cada nodo del clster para los paquetes del mdulode Oracle Solaris Cluster. Instalacin de Sun Management Center : siga los procedimientos descritos en la documentacin de instalacin de Sun Management Center para instalar el software Sun Management Center . A continuacin se indican los requisitos adicionales para una configuracin de Oracle Solaris Cluster:
Instale el paquete del agente de Sun Management Center en cada nodo del clster. A l instalar Sun Management Center en un equipo del agente (nodo del clster), elija si desea utilizar el puerto predeterminado 161 para el puerto de comunicacin del agente (SNMP) u otro nmero. Este nmero de puerto permite que el servidor se comunique con el agente. Anote el nmero del puerto que elija para consultarlo posteriormente al configurar los nodos del clster para la supervisin. Consulte la documentacin de instalacin de Sun Management Center para obtener informacin acerca de la eleccin de un nmero de puerto SNMP.
S i tiene una consola de administracin u otro equipo dedicado, puede ejecutar el proceso de la consola en la consola de administracin y el proceso del servidor en otra mquina. Este enfoque de instalacin permite mejorar el rendimiento de Sun Management Center . Para obtener los mejores resultados, instale los paquetes de la consola y el servidor de Sun Management Center en equipos que no estn en el modo de clster. S i decide instalar los paquetes de la consola o el servidor en un nodo del clster, es posible que experimente los siguientes efectos adversos en el rendimiento:
El rendimiento del clster podra reducirse de forma considerable debido al aumento de carga de los procesos de Sun Management Center . Es muy probable que esto suceda cuando el servidor de Sun Management Center se ejecute en un nodo del clster.
255
SPA R C Instalacin : del mdulo de OracleSolaris Cluster para Sun Management Center
Sun Management Center no obtendr una alta disponibilidad si el servidor se instala en un nodo del clster. El servicio de Sun Management Center presentar errores si el nodo deja de funcionar como, por ejemplo, durante la migracin tras error a otro nodo.
Explorador web: asegrese de que el explorador web que utilice para conectarse a Sun Management Center sea compatible con esta aplicacin. Es posible que determinadas funciones no estn disponibles en los exploradores web incompatibles. Consulte la documentacin de Sun Management Center para obtener informacin sobre los exploradores web compatibles y los requisitos de configuracin.
SPA R C : Cmo instalar el mdulo de Oracle Solaris Cluster para Sun Management Center
Realice este procedimiento para instalar el paquete del servidor del mdulo de Oracle Solaris Cluster.
Nota Los paquetes del agente del mdulo de Oracle Solaris Cluster, SUNW scsal y S U N W scsam ,
ya se han agregado a los nodos del clster global durante la instalacin del software Oracle Solaris Cluster.
Antes de empezar
Asegrese de que los paquetes centrales de Sun Management Center se hayan instalado en los equipos correspondientes. Esta tarea incluye la instalacin de los paquetes del agente de Sun Management Center en cada nodo del clster. Consulte la documentacin de Sun Management Center para obtener instrucciones de instalacin. En el equipo del servidor de Sun Management Center , instale el paquete del servidor del mdulo de Oracle Solaris Cluster SUNWscssv. a. Convirtase en superusuario. b. Inserte el D VD-R O Men la unidad de D VD-R O M . Si el daemon de administracin de volmenes vold(1M) se est ejecutando y se ha configurado para administrar dispositivos de CD-ROM o DVD, ste montar automticamente el medio en el directorio /cdrom/cdrom0. c. Acceda al directorio Solaris_sparc/Product/sun_cluster/Solaris_ donde ver es 10 para Solaris 10. ver/Packages/ ,
phys-schost# cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris
_ver/Packages/
e. Extraiga el D VD-R O Mde la unidad de D VD-R O M . i. Para asegurarse de que no se est utilizando el D VD-R O M acceda , a un directorio que no est incluido en ste. ii. Expulse el D VD-R OM .
phys-schost# 2 eject cdrom
Instale los parches del mdulo Oracle Solaris Cluster necesarios. Consulte Patches and Required Firmware Levels en las Notas de la versin de Sun Cluster para conocer la ubicacin de los parches y las instrucciones de instalacin. Inicie Sun Management Center . Vaya a SPARC: Cmo iniciar Sun Management Center en la pgina 256.
Pasos siguientes
En cada equipo del agente (nodo del clster) de Sun Management Center , inicie el proceso del agente de Sun Management Center como superusuario.
phys-schost# /install-dir/SUNWsymon/sbin/es-start -a
En cada equipo del agente (nodo del clster) de Sun Management Center , asegrese de que el daemon scsymon_srv se est ejecutand o.
phys-schost# ps -ef | grep scsymon_srv
Si el daemon csymon_srv no se est ejecutando an en algn nodo del clster, incielo en ese nodo.
phys-schost# /usr/cluster/lib/scsymon/scsymon_srv 4
En el equipo de la consola de Sun Management Center (consola de administracin), inicie la consola de Sun Management Center . No es necesario ser superusuario para iniciar el proceso de la consola.
adminconsole% /install-dir/SUNWsymon/sbin/es-start -c
Pasos siguientes
Agregue el nodo del clster en un objeto de host supervisado. Vaya a SPARC: Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center en la pgina 257.
SPA R C : Cmo agregar un nodo del clster global como objeto de host del agente de Sun Management Center
Realice este procedimiento para crear un objeto de host del agente de Sun Management Center para un nodo del clster global.
Inicie una sesin en Sun Management Center . Consulte la documentacin de Sun Management Center .
En la ventana principal de Sun Management Center , seleccione un dominio de la lista desplegable "Sun Management Center Administrative Domains" (Dominios administrativos de Sun Management Center ). Este dominio contiene el objeto de host del agente de Sun Management Center que ha creado. Durante la instalacin del software Sun Management Center , se crea automticamente un dominio predeterminado. Puede utilizar este dominio, seleccionar uno existente o crear uno nuevo. Consulte la documentacin de Sun Management Center para obtener informacin sobre cmo crear dominios de Sun Management Center .
3 4 5
Seleccione "Edit ""Create an Object" (EditarCrear un objeto) en el men desplegabl e. Haga clic en la ficha "Node" (Nodo). En la lista desplegable "Monitor Via" (Supervisar mediante), seleccione "Sun Management Center Agent - Host" (Agente de Sun Management Center - Host). Escriba el nombre del nodo del clster como, por ejemplo, phys-schost-1 , en los campos de texto "Node Label" (Etiqueta del nodo) y "Hostname" (Nombre de host). Deje el campo de texto IP en blanco. El campo de texto"Description" (Descripcin) es opcional. En el campo de texto "Port" (Puerto), escriba el nmero de puerto que seleccion al instalar el equipo del agente de Sun Management Center . Haga clic en "O K" (Aceptar).
Pasos siguientes
Cargue el mdulo de Oracle Solaris Cluster. Vaya a SPARC: Cmo cargar el mdulo de Oracle Solaris Cluster en la pgina 258. Slo necesita un objeto de host del nodo del clster para utilizar las funciones de supervisin y configuracin del mdulo de Oracle Solaris Cluster en todo el clster. Sin embargo, si ese nodo del clster deja de estar disponible, la conexin con el clster a travs de ese objeto de host tambin dejar de estar disponible. Necesitar a continuacin otro objeto de host del nodo del clster para volver a conectarse al clster.
Errores ms frecuentes
En la jerarqua de rbol ubicada a la izquierda de la ventana, coloque el curso sobre el icono del mdulo de Oracle Solaris Cluster y haga clic con el botn izquierdo del ratn.
En la vista de topologa ubicada a la derecha de la ventana, coloque el curso sobre el icono del mdulo de Oracle Solaris Cluster y haga doble clic con el botn izquierdo del ratn.
Vase tambin
Consulte la documentacin de Sun Management Center para obtener ms informacin sobre cmo utilizar Sun Management Center . Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentacin proporcionada con el software de la aplicacin y Oracle Solaris Cluster Data ServicesPlanning and Administration Guide.
Pasos siguientes
260
A P T U L O
En este captulo, se proporcionan los procedimientos necesarios para desinstalar o suprimir determinadas aplicaciones de software de una configuracin de Oracle Solaris Cluster. En este captulo se describen los siguientes procedimientos:
Cmo anular la configuracin del software Oracle Solaris Cluster para solucionar problemas de instalacin en la pgina 261 Cmo suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart en la pgina 265 Cmo desinstalar el software SunPlex Manager en la pgina 267 Cmo quitar el software Servidor de qurum en la pgina 268 Cmo anular la configuracin de un clster de zona en la pgina 269
Cmo anular la configuracin del software Oracle Solaris Clus ter para solucionar problemas de instalacin
Realice este procedimiento si el nodo instalado no puede unirse al clster o si necesita corregir la informacin de configuracin. Por ejemplo, lleve a cabo este procedimiento en todos los nodos para volver a configurar los adaptadores de transporte o la direccin de red privada.
5
Desinstalacindel software
como se describe en el Paso 2 de Cmo verificar los modos de configuracin e instalacin del qurum en la pgina 155, no realice este procedimiento. En su lugar, consulte Desinstalacin del software Oracle Solaris Cluster desde un nodo del clster de Gua de administracin del sistema de Oracle Solaris Cluster.
Antes de empezar
Intente volver a ejecutar la configuracin del clster del nodo mediante la utilidad scinstall . Para corregir determinados errores de la configuracin del nodo del clster, aplique de nuevo la configuracin de software Oracle Solaris Cluster en el nodo. Agregue a la lista de autenticacin de nodos del clster cada nodo para el que vaya a anular su configuracin. Si va a anular la configuracin de un clster con un nico nodo, vaya al Paso 2. a. Convirtase en superusuario en un miembro activo del clster distinto al nodo en el que se vaya a anular la configuracin. b. Especifique el nombre del nodo que se va a agregar a la lista de autenticacin.
phys-schost# /usr/cluster/bin/claccess allow -h nodename
-h nombre_nodo Especificael nombre del nodo que se va a agregar a la lista de autenticacin. Tambin puede usar la utilidad clsetup para realizar esta tarea. Consulte Adicin de un nodo a la lista de nodos autorizados de Gua de administracin del sistema de Oracle Solaris Cluster para obtener informacin sobre los procedimientos.
2 3
E n sistemas basados en x86, ejecute los siguientes comandos: a. Utilice las teclas de flecha del men G R U Bpara seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos. El men de GRUB que aparece es similar al siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | Solaris failsafe | + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, e to edit the commandsbefore booting, or c for a command-line. | | |
Para obtener ms informacin acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration . b. En la pantalla de parmetros de inicio, seleccione la entrada kernel y escriba e para editarla. La pantalla de los parmetros de inicio de GRUB que aparece es similar a la siguiente:
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot | module /platform/i86pc/boot_archive |+ ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu. | | |
c. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clster.
[ Minimal BASH-like line editing is supported. For the first word, T A B lists possible com m andcompletions. Anywhere else T A B lists the possible completions of a device/filename. E S C at any time e x its. ] grub edit> kernel /platform/i86pc/multiboot -x
d. Pulse Intro para aceptar el cambio y volver a la pantalla de parmetros de inicio. La pantalla muestra el comando editado.
G N UG R U Bversion 0.97 (639K lower / 1047488K upper memory) + ----------------------------------------------------------------------+ | root (hd0,0,a) | kernel /platform/i86pc/multiboot -x | module /platform/i86pc/boot_archive + ----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press b to boot, e to edit the selected com m andin the
Captulo 9 Desinstalacindel software del clster
| | |
boot sequence, c for a command-line, o to open a new line after (O for before) the selected line, d to remove the selected line, or escape to go back to the main menu.-
tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciar en el modo de clster. Si, por el contrario, desea iniciar en el modo sin clster, siga estos pasos para volver a agregar la opcin -x al comando del parmetro de inicio del ncleo.
5
Acceda a un directorio como, por ejemplo, el directorio raz (/), que no contenga ningn archivo proporcionado por los paquetes de Oracle Solaris Cluster.
phys-schost# cd /
El nodo se suprime de la configuracin del clster, aunque el software Oracle Solaris Cluster no se elimina del nodo. Consulte la pgina de comando man clnode(1CL) para obtener ms informacin.
7 8
Repita del Paso 2 al Paso 6 para cada nodo adicional cuya configuracin desee anular. (Opcional) Desinstale los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Nota Si no necesita suprimir o volver a instalar el software Oracle Solaris Cluster, puede
omitir este paso. En este paso, tambin se suprime la entrada de Oracle Solaris Cluster del registro de productos de installer . Si el registro de productos de &; contiene una entrada en la que se indica que el software Oracle Solaris Cluster est instalado, el programa installer mostrar el componente Oracle Solaris Cluster atenuado y no permitir la reinstalacin. a. Inicie el programa uninstall . Ejecute el siguiente comando, donde ver hace referencia a la versin de la distribucin de Java ES desde la que se ha instalado el software Oracle Solaris Cluster.
phys-schost# /var/sadm/prod/SUNWentsys ver/uninstall
b. Siga las instrucciones que aparecen en la pantalla para seleccionar los componentes de Oracle Solaris Cluster que desea desinstalar.
8 Gua de instalacindel software OracleSolaris Cluster Septiemb re de 2010,R evisinA
debe desinstalarlo tambin. Para obtener ms informacin sobre el uso del programa uninstall , consulte Captulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX .
Errores ms frecuentes
Si el programa uninstall no existe en el nodo, podra suceder que la instalacin de paquetes no se completara del todo. Elimine el archivo /var/sadm/install/productregistry ;a continuacin, utilice el comando pkgrm para eliminar manualmente todos los paquetes de Oracle Solaris Cluster. Para volver a instalar o configurar el software Oracle Solaris Cluster en el nodo, consulte la Tabla 21. En esta tabla, se muestran todas las tareas de instalacin y el orden en el que deben realizarse. Para eliminar fsicamente el nodo del clster, consulte How to Remove an Interconnect Component de Oracle Solaris Cluster 3.3 Hardware Administration Manual y el procedimiento de eliminacin del manual de la Coleccin de administracin del hardware de Oracle Solaris Cluster correspondiente a su matriz de almacenamiento.
Pasos siguientes
Cmo suprimirla informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart
Lleve a cabo este procedimiento para suprimir la informacin de Oracle Solaris Cluster desde un servidor de instalacin JumpStart utilizado para instalar y configurar un clster. Puede suprimir la informacin de uno o varios nodos individuales o de uno o varios clsteres completos. Para obtener ms informacin sobre la funcin JumpStart, consulte Gua de instalacin de Solaris 10 10/09: instalacin JumpStart personalizada e instalaciones avanzadas.
1 2
Convirtase en superusuario en el servidor JumpStart. Acceda al directorio de JumpStart utilizado para instalar el software Oracle Solaris Cluster.
installserver# cd jumpstart-dir
Suprima del archivo rules las entradas creadas por el comando scinstall que contengan el nombre de un nodo que desee eliminar. Las entradas de Oracle Solaris Cluster hacen referencia a autostinstall.class o autoscinstall.finish o a los dos archivos. Las entradas presentan un aspecto similar al siguiente, donde versin hace referencia a la versin del software Oracle Solaris Cluster:
hostname phys-schost-1 autoscinstall.d /release /autoscinstall.class \
9 Captulo 9 Desinstalacindel software del clster
autoscinstall.d/
release /autoscinstall.finish
10
Vuelva a generar el archivo rules.ok . Ejecute el comando check ubicado en el directorio jumpstart-dir/ para volver a generar el archivo rules.ok .
installserver# ./check
Suprima del directorioclusters/ nombre_clster/ correspondiente el vnculo simblico de cada nodo que desee suprimir.
Para suprimir el vnculo simblico de uno o varios nodos del clster, elimine el vnculo con el nombre de cada nodo que desea suprimir.
installserver# r m -f autoscinstall.d/clusters /clustername/nodename
Para suprimir los vnculos simblicos de todo un clster, elimine de forma recursiva el directorio con el nombre del clster que se va a suprimir.
installserver# r m -rf autoscinstall.d/clusters /clustername
Para suprimir los vnculos simblicos de todos los clsteres, elimine de forma recursiva el directorio clusters/ .
installserver# r m -rf autoscinstall.d/clusters
Suprima del directorio autoscinstall.d/ el directorio de configuracin del nodo con el nombre de cada nodo que desee suprimir. Si suprime informacin de todo un clster, elimine el directorio de cada nodo del clster.
Para suprimir informacin de uno o varios nodos de un clster, elimine de forma recursiva el directorio de cada nodo.
installserver# r m -rf autoscinstall.d/nodes /nodename
Para suprimir todas las entradas de todos los clsteres, elimine de forma recursiva el directorio autoscinstall.d .
installserver# r m -rf autoscinstall.d
(Opcional) Si ha utilizado un archivo de almacenamiento flash para instalar el clster median te JumpStart, elimnelo si ya no lo necesita.
installserver# r m filename.flar
Pasos siguientes
Si tiene intencin de utilizar el mtodo JumpStart personalizado para volver a instalar un clster del que ha suprimido informacin de uno o varios nodos que se han eliminado de ese clster, debe volver a ejecutar scinstall para actualizar la lista de nodos del clster. See Cmo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart) en la pgina 107.
compartidos si pretende utilizar la interfaz grfica de usuario (GUI) para las funciones del software Oracle Solaris Cluster Geographic Edition o Oracle Solaris Cluster que estn disponibles a travs de la GUI. Entre estas funciones, se incluyen los asistentes de configuracin de servicios de datos y la supervisin de los recursos del sistema. Sin embargo, si ha utilizado la interfaz de lnea de comandos para administrar estas funciones, la desinstalacin del software SunPlex Manager o Oracle Solaris Cluster Manager puede realizarse de forma segura. Realice este procedimiento en cada uno de los nodos del clster para desinstalar el software SunPlex Manager y los componentes compartidos de Sun Java Enterprise System relacionados.
Nota El software SunPlex Manager debe instalarse en todos los nodos del clster o no
Convirtase en superusuario en un nodo del clster. Suprima los paquetes de software SunPlex Manager.
phys-schost# p k g r m S U N W scsp SU mN W scsp m Su U N W scsp m r
(Opcional) Suprima los paquetes de software Oracle Java Web Console si ya no los necesita.
phys-schost# p k g r m S U N W m cta SgU N W m c o S nU r N W m co Sn U N W m co Ss U N W m co sx
(Opcional) Si ha suprimido los paquetes de Oracle Java Web Console, elimine los paquetes de Apache Tomcat y Java Studio Enterprise Web Application Framework (Java ATO) si ya no los necesita. Suprima los paquetes que se indican a continuacin para cada uno de los productos adicionales que desee desinstalar en el orden en que se muestran los conjuntos de paquetes.
Producto
Antes de empezar
En cada clster que use el servidor de qurum, suprmalo como dispositivo del qurum. Realice los pasos descritos en Eliminacin de un dispositivo de qurum de Gua de administracin del sistema de Oracle Solaris Cluster. En el modo de funcionamiento normal, este paso tambin suprime la informacin del servidor de qurum en el host del servidor de qurum. Si falla la comunicacin entre el clster y el equipo host del servidor de qurum durante este paso, debe borrar la informacin no vlida del servidor de qurum en el equipo host del servidor de qurum. Realice los pasos descritos en Limpieza de la informacin caducada sobre clsters del servidor de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.
En cada equipo host del servidor de qurum, detenga este servidor mediante los pasos descritos en Detencin de un servidor de qurum de Gua de administracin del sistema de Oracle Solaris Cluster.
(Opcional) Para usar la interfaz grfica de usuario interactiva, compruebe que el entorno de visualizacin del servidor de host que se va a instalar se haya configurado para mostrar la GUI.
% xhost + % setenv D IS P L A Y nodenam :0.0 e
2 3
Convirtase en superusuario en el equipo host del servidor de qurum que se va a desinstalar. Acceda al directorio en el que se encuentra el programa de desinstalacin.
quorumserver# cd /var/sadm/prod/SUNWentsysver
ver
Siga las instrucciones que aparecen en la pantalla para desinstalar el software del servidor de qurum desde el equipo host del servidor de qurum. Una vez eliminado, puede consultar el registro de instalacin disponible. Consulte Captulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX para
(Opcional) Limpie o suprima los directorios del servidor de qurum. De forma predeterminada, este directorio es /var/scqsd .
estos pasos desde un nodo del clster de zona, inicie una sesin en ese nodo y omita "-Z clster_zona" en cada comando. a. Establezca fuera de lnea cada uno de los recursos.
phys-schost# clresource offline -Z zonecluster resource-group
Debe inhabilitar los recursos dependientes antes de inhabilitar aquellos de los que dependen. d. Inhabilite todos los recursos habilitados en el clster.
phys-schost# clresource disable -Z zonecluster resource
g. Asegrese de que todos los recursos de todos los nodos se encuentren Fuera de lnea y de que todos los grupos de recursos presenten el estado N o administrado.
phys-schost# cluster status -Z zonecluster -t resource,resourcegroup
h. Elimine todos los grupos de recursos y sus recursos del clster de zona.
phys-schost# clresourcegroup delete -F -Z zonecluster + 3
P N D I C E
Este apndice ofrece hojas de trabajo para la planificacin de diversos componentes de la configuracin del clster y ejemplos de hojas de trabajo rellenas como referencia. Consulte Hojas de trabajo de instalacin y configuracin en Oracle Solaris Cluster Data Services Planning and Administration Guide , donde encontrar hojas de trabajo de configuracin para recursos, as como para tipos y grupos de recursos.
15
Los ejemplos no reflejan una configuracin completa de un clster que pudiera funcionar correctamente. En la tabla que aparece a continuacin, se muestran las hojas de trabajo de planificacin y los ejemplos que se recogen en este apndice, as como los ttulos de las secciones del Captulo 1, Planificacin de la configuracin de Oracle Solaris Cluster que contienen directrices de planificacin relacionadas.
TA B L AA1
Hoja de trabajo
Hoja de trabajo para el diseo del sistema de archivos local en la pgina 273
Ejemplo: hojas de trabajo para el diseo de sistemas de archivos locales, con y sin raz reflejada en la pgina 274
Particiones de disco del sistema en la pgina 19 Directrices para la creacin de reflejos del disco raz en la pgina 58 --Grupos de dispositivos en la pgina 47 Planificacin de la administracin de volmenes en la pgina 53 Planificacin de la administracin de volmenes en la pgina 53 Documentacin del administrador de volmenes Planificacin de la administracin de volmenes en la pgina 53 Solaris Volume Manager Administration Guide
Hojas de trabajo para dispositivos locales Ejemplo: hojas de trabajo para en la pgina 275 dispositivos locales en la pgina 276 Hoja de trabajo para la configuracin Ejemplo: hoja de trabajo para la de grupos de dispositivos en la pgina configuracin de grupos de 277 dispositivos en la pgina 278 Hoja de trabajo para la configuracin del administrador de volmenes en la pgina 279 Ejemplo: hoja de trabajo para la configuracin del administrador de volmenes en la pgina 280
16
/ intercambio /globaldevices
TA B L A A3
/ intercambio /globaldevices
17
Ejemplo:hojas de trabajo para el diseo de sistemas de archivos locales, con y sin raz reflejada
Nombre del nodo: phys-schost-1
TA B L AA4
Ejemplo: hoja de trabajo para sistemas de archivos locales con raz reflejada
Componen te Componen te Sistema de archivos Tamao
d1 d2 d3
/ intercambio /globaldevices
d7
TA B L AA5
c0t0d0s7
c1t0d0s7
S V Mreplica
20 M B
Ejemplo: hoja de trabajo para sistemas de archivos locales sin raz reflejada
Sistema de archivos Tamao
/ intercambio /globaldevices
c0t0d0s7
S V Mreplica
20 MB
18
TA B L A A7
Tipo de dispositivo
19
2G 2G 2G 2G
TA B L A A9
Tipo de dispositivo
cinta
/dev/rmt/0
20
Grupo de discos/
21
dg-schost-1
S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No
S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No S | No
22
23
dg-schost-1/d1 dg-schost-1/d4
mirror mirror
c0t0d0s4 c0t0d2s5
c4t4d0s4 d4t4d2s5
24
Sistema de archivos
Volumen
Reflejo
Subreflejos
Dispositivos fsicos
25
Sistema de archivos
Volumen
Reflejo
Subreflejos
Dispositivos fsicos
/A
d10
d11
d12, d13
hsp000
c1t0d0s0, c2t0d1s0
26
ndice
Nmeros y smbolos
&software Sun Logical Domains (LDoms) dominios invitados planificar el intervalo de direcciones, 37
A
aadir Ver tambin configurar Ver tambin instalar hosts mediadores, 194195 puntos de montaje del sistema de archivos del clster a nuevos nodos, 73 unidades a un conjunto de discos, 187 189 adaptadores direccin MAC local, 29 dominios invitados de LDoms, 39 VLAN directrices de redes privadas, 37 VLAN etiquetada directrices de interconexin del clster, 39 directrices de red pblica, 28 adaptadores de transporte, Ver adaptadores adaptadores de VLAN, directrices de interconexin del clster, 39 adaptadores de VLAN etiquetadas, directrices de interconexin del clster, 39 adaptadores VLAN directrices de red pblica, 28 directrices de redes privadas, 37
adaptadores VLAN etiquetados, directrices de red pblica, 28 administrador de volmenes, particiones del, 19 administradores de volmenes Ver tambin Solaris Volume Manager Ver tambin Veritas Volume Manager (VxVM) planificacin Solaris Volume Manager, 5556 planificar general, 5359 Veritas Volume Manager, 5657 agregar, nodos del mdulo de Oracle Solaris Cluster a Sun Management Center, 257 258 aislamiento global, 4041 algoritmo de rbol de expansin, inhabilitar para los servidores del qurum, 30 almacenamiento conectado a redes, Ver NAS anular la configuracin Ver tambin desinstalar Ver tambin eliminar clsteres de zona, 269 270 software Oracle Solaris Cluster, 261 265 apagado automtico para ahorro de energa, restriccin, 18 aplicaciones, instalar en un sistema de archivos del clster, 49 archivo /etc/clusters , 68 archivo /etc/inet/hosts configurar, 74, 113 configurar en zonas de direcciones IP exclusivas, 227 planificar, 27
27
ndice
archivo /etc/inet/ike/config , 167 archivo /etc/inet/ntp.conf configurar, 164166 detener NTP, 165 iniciar NTP, 165 /etc/inet/ntp.conf.cluster archivo configurar, 164166 detener NTP, 165 iniciar NTP, 165 archivo /etc/lvm/md.tab , 190191 archivo /etc/name_to_major nodos instalados con VxVM, 201 nodos sin VxVM, 73, 202 archivo /etc/nsswitch.conf , modificaciones en las zonas no globales, 226 archivo /etc/serialports , 68 archivo /etc/system configuracin del adaptador ce, 81, 122 opcin de LOFS, 96, 103, 121, 140 valor de tamao de pila, 78 valor del tamao de pila de subproceso, 211 variable kernel_cage_enable, 74 archivo /etc/vfstab agregar puntos de montaje, 219 comprobar la configuracin, 220 archivo /var/adm/messages, 13 archivo autoscinstall.class , 115 archivo class , modificar, 115 archivo clusters , consola de administracin, 68 archivo hosts configurar, 74, 113 configurar en zonas de direcciones IP exclusivas, 227 planificar, 27 archivo md.tab, configurar, 190191 archivo name_to_major nodos instalados con VxVM, 201 nodos sin VxVM, 73, 202 archivo nsswitch.conf , modificaciones en las zonas no globales, 226 archivo ntp.conf configurar, 164166 detener NTP, 165 iniciar NTP, 165
archivo ntp.conf.cluster configurar, 164166 detener NTP, 165 iniciar NTP, 165 archivo serialports , 68 archivo system valor de tamao de pila, 78 valor del tamao de pila de subprocesos, 211 variable kernel_cage_enable, 74 archivo vfstab agregar puntos de montaje, 219 comprobar la configuracin, 220 archivos de inicializacin, 82 archivos de inicializacin del usuario, modificar, 82 archivos de mensajes, clster, 13 archivos de registro, instalacin de Oracle Solaris Cluster, 95 arquitectura de seguridad IP (IPsec) configuracin de archivo /etc/inet/ike/config necesaria, 167 configurar asociaciones de seguridad (SA), 167 configurar en la interconexin del clster, 166 168 asignacin de nombre basada en contenedor, planificar, 56 asociaciones de seguridad (SA), configurar para IPsec, 167 autenticacin, Ver lista de nodos autorizados ayuda, 1213
C
cadenas de discos, requisitos de los mediadores de dos cadenas, 194 cambiar intervalo de direcciones IP privadas, 128 134 nombres de host privados, 156158 cargar mdulo de Oracle Solaris Cluster en Sun Management Center, 258259 clster de zona aadir sistemas de archivos grupos de almacenamiento ZFS, 242243 clster zonas de marca, 44 clsteres con un nico host, asignar nombre, 34
clsteres con un nico nodo, Ver clsteres con un nico host clsteres de un solo host, configurar interconexiones del clster, 126 clsteres de zona aadir dispositivos conjuntos de discos, 250251 dispositivos de disco bsicos, 252 dispositivos DID, 251252 metadispositivos, 248249 aadir sistemas de archivos QFS, 244246 sistemas de archivos locales, 241242 agregar al intervalo de direcciones IP privadas, 36 agregar sistemas de archivos sistemas de archivos de clster, 246 248 anular la configuracin, 269270 archivo de configuracin, 239 asignar nombre, 44 configurar, 229252 crear, 233240 crear a partir de un archivo de configuracin, 239 direcciones IP, 27 establecer propiedad de tipo de recurso Global_zone, 44 informacin general, 230 montar sistemas de archivos con HAStoragePlus, 44 parada, 270 planificar, 4346 comando /etc/init.d/xntpd detener NTP, 165 iniciar NTP, 165 comando /etc/init.d/xntpd.cluster , iniciar NTP, 165 comando /opt/SUNWcluster/bin/cconsole, 70 instalar el software, 6770 usar, 71, 118 comando /opt/SUNWcluster/bin/ccp, 70 comando /usr/cluster/bin/claccess aadir nodos a la lista de nodos autorizados, 262 eliminar nodos de la lista de nodos autorizados, 139 comando /usr/cluster/bin/cldevice actualizar el espacio de nombres de dispositivos
comando /usr/cluster/bin/cldevice (Continuacin) determinar los nombres de ID de dispositivo, 151 verificar el procesamiento del comando, 185 comando /usr/cluster/bin/cldevicegroup eliminar nodos de grupos de dispositivos de disco bsicos, 206 verificar las configuraciones de grupos de discos, 212214 comando /usr/cluster/bin/clnode cambiar de ubicacin los grupos de recursos y dispositivos, 205 visualizar nombres de host privados, 157 comando /usr/cluster/bin/clquorumserver , iniciar el servidor de qurum, 66 comando /usr/cluster/bin/clresource enumerar recursos, 269 establecer fuera de lnea grupos de recursos, 269 inhabilitar de recursos, 269 comando /usr/cluster/bin/clsetup aadir interconexiones del clster, 126 cambiar nombres de host privados, 157 configuracin posterior a la instalacin, 153 registrar grupos de dispositivos, 209 comando /usr/cluster/bin/cluster aadir nodos, 142146 crear clsteres globales nuevos, 98107 verificar el modo de instalacin, 155 comando /usr/cluster/bin/cluster check, comprobacin del archivo vfstab , 220 comando /usr/cluster/bin/clvxvm , instalacin de VxVM, 201203 comando /usr/cluster/bin/scinstall aadir nodos, 134141 aadir nodos mediante JumpStart, 107125 anular la configuracin del software Oracle Solaris Cluster, 261265 crear el clster global, 8898 crear el clster global mediante JumpStart, 107125 comando cconsole instalar el software, 6770 usar, 71, 118
globales, 185
comando ccp, 70
comando claccess aadir nodos a la lista de nodos autorizados, 262 eliminar nodos de la lista de nodos autorizados, 139 comando cldevice actualizar el espacio de nombres de dispositivos globales, 185 determinar los nombres de ID de dispositivo, 151 verificar el procesamiento del comando, 185 comando cldevicegroup eliminar nodos de grupos de dispositivos de disco bsicos, 206 verificar las configuraciones de grupos de discos, 212214 comando clnode cambiar de ubicacin los grupos de recursos y dispositivos, 205 visualizar nombres de host privados, 157 comando clquorumserver, iniciar el servidor de qurum, 66 comando clresource enumerar recursos, 269 establecer fuera de lnea grupos de recursos, 269 inhabilitar recursos, 269 comando clsetup aadir interconexiones del clster, 126 cambiar nombres de host privados, 157 configuracin posterior a la instalacin, 153 registrar grupos de dispositivos, 209 comando cluster aadir nodos, 142146 agregar clsteres de zona a intervalo de direcciones IP privadas, 128 agregar clsteres de zona al intervalo de direcciones IP privadas, 36 crear clsteres globales nuevos, 98107 mostrar la configuracin de red privada, 127 verificar el modo de instalacin, 155 comando cluster check, comprobacin del archivo vfstab , 220 comando clvxvm, instalar VxVM, 201203 comando clzonecluster crear un clster de zona, 235 crear un clster de zona mediante un archivo
de configuracin, 239
comando clzonecluster (Continuacin) iniciar el clster de zona, 237 instalar el clster de zona, 236 parada del clster de zona, 270 comando explorer , 169170 comando fattach , restriccin en los sistemas de archivos del clster, 49 comando forcedirectio , restriccin, 53 comando raidctl , 7576 comando scinstall aadir nodos, 134141 aadir nodos mediante JumpStart, 107125 anular la configuracin del software Oracle Solaris Cluster, 261265 crear el clster global, 8898 crear el clster global mediante JumpStart, 107 125 comando telnet , nmeros de puerto serie, 69 comando xntpd detener NTP, 165 iniciar NTP, 165 comando xntpd.cluster , iniciar NTP, 165 comandocconsole, 70 compatibilidad de las tarjetas de interfaz de red (NIC) con las direcciones MAC locales, 29 compatibilidad de NIC con las direcciones MAC locales, 29 comprobar configuracin de vfstab , 220 SMF, 95, 102, 120, 138, 225 concentradores de terminales (TC), Ver dispositivos de acceso a la consola concentrar carga, establecer para distribucin de carga, 163164 configuracin de rpcmod, 78 configurar archivo md.tab, 190191 clsteres de zona, 229 252 mediante el shell de comandos, 233240 utilizando un archivo de configuracin, 239 clsteres globales nuevos mediante
JumpStart, 107125 mediante scinstall , 8898 mediante un archivo XML, 98107 conjuntos de discos, 185187
configurar (Continuacin) dispositivos del qurum, 149 154 entorno de trabajo del Filtro IP de usuario, 82Solaris, 8384 grupos de discos locales, 208210 grupos de IPMP, 74 interconexiones de un clster de un solo host, 126 Network Time Protocol (NTP), 164166 nodos de votacin de clster global adicionales mediante JumpStart, 107125 mediante scinstall , 134141 mediante un archivo XML, 142146 rplicas de base de datos de estado, 172 173 sistemas de archivos del clster, 217 221 software Servidor de qurum, 6467 Solaris Volume Manager, 171184 Veritas Volume Manager (VxVM), 199 207 zonas no globales, 223229 conflictos relacionados con el nmero menor, reparar, 211212 conjuntos de almacenamiento ZFS restricciones sistemas de archivos de dispositivos globales, 21 conjuntos de discos Ver conjuntos de discos aadir un clster de zona, 250 251 aadir unidades, 187189 configurar, 185187 reconfigurar particiones de unidades, 189 190 conmutadores, planificar, 39 conmutadores de transporte, planificar, 39 consola de administracin direcciones IP, 27 instalar el software CCP, 6770 M A N P A,T 69 H P A T H ,69 contenedor de agentes comn, habilitar el daemon, 113 contenedores Oracle Solaris modificaciones en el archivo nsswitch.conf , 226 propiedad autoboot, 225 zonas de direcciones IP compartidas, 225 zonas de direcciones IP exclusivas
contenedores Oracle Solaris, zonas de direcciones IP exclusivas (Continuacin) configurar grupos IPMP, 226 controladores del sistema (SC), Ver dispositivos de acceso a la consola convencin de asignacin de nombre, dispositivos de disco bsicos, 219 convenciones de nomenclatura adaptadores de VLAN etiquetadas, 39 clster, 3334 clsteres de zona, 44 nodos de votacin de clster global, 34 nombres de host privados, 37 volmenes locales, 55 zonas, 3435 zonas no globales, 23 creacin de reflejos, planificar, 58 59 creacin de reflejos integrada, 7576 cuotas, restriccin para los sistemas de archivos del clster, 48 CVM, Ver funcin de clster de Veritas Volume Manager (VxVM)
D
desencapsular el disco raz, 214 216 desinstalar Ver tambin anular la configuracin Ver tambin eliminar servidores del qurum, 268 269 solucin de problemas, 265 SunPlex Manager, 267268 direccin MAC local, 29 direcciones IP aadir a un servicio de nombres para zonas de direcciones IP exclusivas, 227 aadir al servicio de nombres, 71 cambiar el intervalo de direcciones IP privadas, 128134 directrices para los clsteres de zona, 43 planificar la red privada, 3537 configurar el archivo hosts , 227
direcciones IPv6 (Continuacin) uso de la red pblica, 29 direcciones lgicas, planificacin, 28 directorio /global , 52 directorio /opt/SUNWcluster/bin/, 69 directorio /opt/SUNWcluster/man/, 69 directorio /usr/cluster/bin/ , 82 directorio /usr/cluster/man/ , 82 discos, Ver unidades discos con varios puertos, Ver discos multihost discos multihost planificar, 55 reflejar, 58 discos raz creacin de reflejos inhabilitar aislamiento, 204 crear reflejos de discos internos, 75 76 desencapsular, 214216 encapsular, 203 reflejar, 173 inhabilitar el aislamiento, 174, 177, 180, 182 planificar, 5859 reflejo advertencia, 205 discos raz encapsulados anular la configuracin, 214216 configurar, 203 planificar, 57 reflejar, 205207 discos raz secundarios, 59 discos reemplazables sobre la marcha, planificar, 55 discos SATA, configurar como dispositivos del qurum, 42 dispositivo lofi archivo de clase JumpStart, 116 directriz, 19
dispositivos de disco bsicos aadir a un clster de zona, 252 convenciones de asignacin de nombre, 219 dispositivos de inicio, ruta de inicio alternativa, 175 dispositivos de qurum, recuento de votos de solucin de problemas, 154 dispositivos del qurum actualizar tras agregar un nodo, 146 149 advertencia, 205 configuracin del protocolo SCSI, 42 configuracin inicial, 149154 discos SATA, 42 dispositivos NAS, 150 y creacin de reflejos, 59 planificar, 4142 protocolo del qurum del software, 42 restriccin para los dispositivos repetidos, 42 restriccin para ZFS, 42 servidores del qurum, 150 solucin de problemas clsetup error, 154 verificar, 155156 dispositivos DID aadir a un clster de zona, 251 252 mostrar asignaciones, 188 dispositivos globales advertencia, 215 directorio /global/.devices/ reflejar, 176178 uso de un lofi, id_nodo 19 sistema dedispositivo archivos node@ , 55 limitacin del sistema de archivos para UFS, espacio de nombres 19 particin /globaldevices actualizar, 185
propiedad globaldevfs , 101 requisitos de espacio, 20 dispositivos compartidos, instalar dispositivos del qurum, 149154 dispositivos de acceso a la consola direcciones IP, 27
crea r, 72 particin de /globaldevices planifica r, 19 planificar, 4653 requisitos de espacio para el dispositivo lofi, 20 dispositivos NAS aislar, 31, 45 configurar como dispositivos del qurum, 149154
dispositivos NAS de Network Appliance, configurar como dispositivos del qurum, 149154 dispositivos NAS de Sun, configurar como dispositivos del qurum, 149154 dispositivos repetidos establecer la propiedad de repeticin, 186 requisito de disco, 48 restriccin como dispositivos del qurum, 42 dispositivos SCSI configuracin del protocolo de aislamiento en los dispositivos del qurum, 42 corregir reservas tras agregar un tercer nodo, 146149 distribucin automtica de carga concentrar carga, 163164 factores de carga, 161162 informacin general, 158164 lmites de carga, 159160 preferente, 162163 prioridad, 160161 distribucin de carga de grupos de recursos concentrar carga, 163164 factores de carga, 161162 informacin general, 158164 lmites de carga, 159160 modo preferente, 162163 prioridad, 160161 DRL, planificar, 57
193
E
ejemplos aadir dispositivos a un clster de zona conjuntos de discos, 251 dispositivos DID, 252 metadispositivos, 249 aadir hosts mediadores, 195 aadir sistemas de archivos a un clster de zona conjuntos de almacenamiento ZFS, 243 sistemas de archivos compartidos QFS, 245 sistemas de archivos locales de alta disponibilidad, 242 aadir unidades a un conjunto de discos, 189 activacin de volmenes en el archivo md.tab,
ejemplos (Continuacin) actualizar dispositivos del qurum SCSI tras agregar un nodo, 148149 agregar sistemas de archivos a un clster de zona sistema de archivos de bucle invertido, 245 246 sistemas de archivos de clster, 247 archivo de configuracin de clster de zona, 239 archivo md.tab, 191 asignar un nmero menos a un grupos de dispositivos, 212 configurar el software Oracle Solaris Cluster en nodos adicionales mediante scinstall , 140 141 en todos los nodos con scinstall , 97 98 en todos los nodos mediante un archivo XML, 105 configurar HAStoragePlus para un sistema de archivos del clster en una zona no global, 229 creacin de reflejos disco raz encapsulado, 207 creacin de un conjunto de discos, 187 crear rplicas de base de datos de estado, 172 crear un clster de zona mediante un archivo de configuracin, 239 crear un sistema de archivos de clster, 221 reflejar espacio de nombres de dispositivos globales, 177 178 sistema de archivos raz (/), 175 sistemas de archivos que no se pueden desmontar, 180 181 sistemas de archivos que se pueden desmontar, 183184 eliminar Ver tambin anular la configuracin Ver tambin desinstalar clsteres de zona, 269270 nodos de la lista de nodos, 206
registro de productos de programa installer , 264 servidores del qurum, 268269 software Oracle Solaris Cluster, 261265 enrutadores, restriccin para los nodos del clster, 31 entorno de usuario root, configurar, 82
errores en la ruta del disco, habilitar el reinicio automtico, 96 estado grupos de dispositivos, 212 mediadores de dos cadenas, 195 verificar, 155156
F
factores de carga, establecer para distribucin de carga, 161162 Filtro IP, Ver Filtro IP de Solaris Filtro IP de NAT y Solaris, 18 filtro IP de Solaris configurar, 8384 restricciones, 18
G
grupo de almacenamiento ZFS restricciones encapsulacin del sistema de archivos raz, 57 grupo de discos raz, planificar, 56 grupo de dispositivos, verificar registro, 211 grupos de almacenamiento ZFS aadir a un clster de zona, 242 243 restricciones aadir discos del qurum, 42 grupos de discos Ver tambin grupos de dispositivos configurar, 208210 descripcin de tipos, 207 registrar como grupos de dispositivos, 209 verificar la configuracin, 212214 grupos de discos compartidos, descripcin, 207 grupos de discos de Veritas Volume Manager (VxVM) grupos de discos descripcin de tipos, 207 grupos de discos locales configurar, 208210 descripcin, 207
grupos de discos raz anular la configuracin de discos raz encapsulados, 214216 configurar en discos que no sean raz, 204 205 en discos raz encapsulados, 203 sencillos, 56 grupos de dispositivos Ver tambin grupos de discos asignar un nuevo nmero menor, 211 212 cambiar de ubicacin, 205 discos repetidos, 48 establecer la propiedad de repeticin, 186 estado, 212 exportar, 213 grupos de dispositivos de disco bsicos, 205 importar, 213 planificacin, 4748 registrar grupos de discos como, 209 registro de cambios en, 211 grupos de dispositivos de disco, Ver grupos de dispositivos grupos de dispositivos de disco bsicos, 206 Ver tambin grupos de dispositivos grupos de recursos cambiar de ubicacin, 205 distribucin automtica de carga entre nodos, 158 164 establecer como no administrados, 270 grupos IPMP, 29 grupos IPMP basados en sondeos, 29
H
HA para NFS restriccin con LOFS, 17, 48 habilitar acceso remoto, 94 caja del ncleo, 74 daemon de contenedor de agentes comn, 113 NTP, 165 reinicio automtico al producirse errores en la
habilitar (Continuacin) ruta mltiple de E/S de Solaris, 74 HAStoragePlus Ver tambin sistemas de archivos locales de alta disponibilidad montar sistemas de archivos del clster en zonas no globales, 23, 227229 montar sistemas de archivos en clsteres de zona, 44
I
ID de nodo, asignacin de nmeros, 34 ID de nodos, 34 inhabilitar daemon de NTP, 165 LOFS, 96, 103, 121, 140 modo de instalacin, 154 protocolos de aislamiento, 152 recursos, 269 iniciar en el modo sin clster, 262 servidores del qurum, 66 Sun Management Center, 256257 inicio, Cluster Control Panel (CCP), 70 instalacin de paquetes Oracle Solaris Cluster Manager, 73 scsnapshot, 73, 116 servicios de datos mediante la utilidad installer , 7882 software Cluster Control Panel (CCP), 67 70 software Oracle Solaris Cluster, 7882 instalar Ver tambin aadir Ver tambin configurar Cluster Control Panel (CCP), 6770 en zonas, 17 Oracle Solaris Cluster Geographic Edition, 81 Oracle Solaris Cluster Manager, 81 paquetes de Solaris, 73, 116 pginas de comando man, 68 scsnapshot
instalar (Continuacin) scsnapshot paquetes de Solaris, 116 servicios de datos mediante la utilidad installer , 7882 Sistema de archivos de Veritas (VxFS), 77 software de Solaris con el software Oracle Solaris Cluster, 107 125 instalacin nica, 7075 software LDoms, 7677 software Oracle Solaris Cluster paquetes, 7882 software Servidor de qurum, 64 67 software Sun QFS, 82 Sun Management Center mdulo de Oracle Solaris Cluster, 255256 255 requisitos, 254 Veritas Volume Mnager (VxVM), 199207 instalar paquetes, pginas de comando man de Oracle Solaris Cluster, 68 paquetes de Solaris, 73
instalar servicios de datos, mediante la utilidad installer , 7882 interconexiones de clster, configurar un clster de un solo host, 126 interconexiones del clster cambiar el intervalo de direcciones IP privadas, 128134 planificar, 37 40 interfaces de red de la consola de dominio, direcciones IP, 27 interfaces de red lgicas, restriccin, 39 IPMP configurar grupos, 74 creacin automtica de grupos durante la instalacin, 29 grupos de zonas de IP exclusiva directrices, 24 grupos en zonas de direcciones IP exclusivas configurar, 226 planificar la red pblica, 29 Ipsec, configuracin de archivo /etc/inet/ike/config necesaria, 167
IPsec configurar en la interconexin privada del clster, 166168 configurar las asociaciones de seguridad (SA), 167
J
JumpStart archivo class , 115 instalar Solaris y el software Oracle Solaris Cluster, 107125 secuencia de comandos finish , 117 solucin de problemas de instalacin, 125
L
LDoms, Ver software Sun Logical Domains (LDoms) licencias, planificar, 26 lmites de carga, establecer para distribucin de carga, 159160 lista de nodos autorizados aadir nodos, 262 eliminar nodos, 139 listas de nodos grupos de dispositivos, 55 grupos de dispositivos de disco bsicos, 206 LOFS agregar un sistema de archivos del clster a una zona no global, 23 inhabilitar, 96, 103, 121, 140 restriccin, 17, 48
mediadores, Ver mediadores de dos cadenas mediadores de dos cadenas aadir hosts, 194195 estado, 195 informacin general, 193197 planificar, 55 reparar datos, 196197 mensajes de error clster, 13 comando metainit , 176 NTP, 33 metadispositivos, aadir a un clster de zona, 248 249 modo de instalacin inhabilitar, 154 verificar, 155 modo preferente, establecer para distribucin de carga, 162163 modo sin clster, iniciar en el, 262 mdulo de Oracle Solaris Cluster a Sun Management Center, agregar nodos, 257258 mdulo de Oracle Solaris Cluster en Sun Management Center, 253259 cargar, 258259 instalar, 255256 requisitos, 254255 MPxIO, Ver ruta mltiple de E/S de Solaris multirruta de red IP (IPMP), Ver IPMP Multirruta dinmica (DMP), 57
N
Network Time Protocol (NTP) configurar, 164166 detener, 165 iniciar, 165 NFS, Ver sistema de archivos de red (NFS) nodos, Ver nodos de votacin de clster global nodos de votacin de clster global aadir nodos actualizar los dispositivos del qurum tras, 146149
M
M ANPATH consola de administracin, 69 nodos del clster, 82 mscaras de red cambiar la mscara de red privada, 128 134 mostrar la mscara de red, 127 planificar la red privada, 3537
nodos de votacin de clster global (Continuacin) agregar el mdulo de Oracle Solaris Cluster a Sun Management Center, 257258 asignacin de nmeros de ID de nodo, 34 asignar nombre, 34 crear el clster global mediante JumpStart, 107125 mediante scinstall , 8898 mediante un archivo XML, 98107 determinar el nmero de ID de nodo, 214 direcciones IP, 27 nodos adicionales mediante un archivo XML, 142146 planificar, 34 planificar los clsteres de zona, 43 verificar estado, 95, 102, 124, 139 modo de instalacin, 155 nodos del clster Ver clsteres de zona Ver nodos de votacin de clster global nombre del clster, 3334 nombres de host privados asignar a zonas, 225 cambiar, 156158 clsteres de zona, 44 planificar, 37 verificar, 157 nombres de ID de dispositivo, determinar, 151 NTP configurar, 164166 detener, 165 directrices, 33 iniciar, 165 nmero mayor del controlador vxio, nodos instalados con &VxVMshort, 201
opciones de montaje para sistemas de archivos de clster (Continuacin) requisitos, 219 VxFS, 52 Oracle Java Web Console restablecer, 113 restaurar acceso externo, 79 Oracle Solaris Cluster Geographic Edition, instalar, 81 Oracle Solaris Cluster Manager Ver tambin SunPlex Manager instalar paquetes de Solaris, 73 paquetes de Solaris necesarios, 116 requisito de ubicacin, 81
P
pginas de comando man, instalar, 68 parches, planificar, 2627 particiones administrador de volmenes, 19 /globaldevices , 19, 72 reconfigurar particiones de unidades, 189 190 sistema de archivos raz (/), 20 swap, 19 P A consola TH de administracin, 69 nodos del clster, 82 perfil, JumpStart, 115 prioridad, establecer para distribucin de carga, 160161 Procesador de servicio del sistema (SSP), Ver dispositivos de acceso a la consola de clster
O
opciones de montaje para los sistemas de archivos UFS, 5051 VxFS, 5152 opciones de montaje para sistemas de archivos
procesos de alta prioridad, restriccin, 32 programa installer , eliminar entrada de Oracle Solaris Cluster, 264 propiedad autoboot, 225 propiedad de tipo de recurso Global_zone, establecer para clsteres de zona, 44 propiedad globaldevfs , configurar un dispositivo lofi, 101 Protocolo de administracin de red simple (SNMP), puerto de Sun Management Center, 254 protocolo de tiempo de red (NTP), directrices, 33
protocolo del qurum del software, 42 protocolos de aislamiento, 4041 dispositivos del qurum SCSI, 42 dispositivos NAS, 31, 45 inhabilitar, 152 inhabilitar para la creacin de reflejos de discos raz, 204 inhabilitar para los reflejos de disco raz, 182 inhabilitar para reflejos de disco raz, 174, 177, 180 qurum del software, 42 puertos, Ver puertos serie puertos serie configurar en la consola de administracin, 68 Protocolo de administracin de red simple (SNMP), 254 puntos de montaje aadir a nuevos nodos, 73 anidados, 53 modificacin del archivo /etc/vfstab , 219 sistemas de archivos del clster, 5253 puntos finales de comunicacin, restriccin en los sistemas de archivos del clster, 49
Q
QFS, Ver Sun QFS
R
RAID, restriccin, 54 RAID de hardware, reflejar discos internos, 7576 RAID de software, restriccin, 54 recuperar creacin incorrecta de nodos del clster, 98, 105, 141, 146 recursos enumerar, 269 inhabilitar, 269 recursos de nombre de host lgico, requisito para zonas de IP exclusiva, 24 red privada agregar clster de zona al intervalo de direcciones IP, 128
red privada (Continuacin) agregar clsteres de zona al intervalo de direcciones IP privadas, 36 cambiar el intervalo de direcciones IP, 128 134 configurar IPsec, 166168 configurar la visualizacin, 127 dominios invitados de LDoms, 37 planificar, 3537 restriccin de direccin IPv6, 38 uso en clsteres de zona, 43 red pblica aadir direcciones IP a un servicio de nombres, 71 compatibilidad con IPv6, 29 planificar, 2830 reflejar discos internos, 7576 discos multihost, 58 discos raz, 173 planificar, 5859 espacio de nombres de dispositivos globales, 176178 sistema de archivos raz (/), 173 176 solucin de problemas sistemas de archivos de dispositivos globales, 178 sistemas de archivos que no se pueden desmontar, 181 sistemas de archivos que se pueden desmontar, 184 sistemas de archivos raz, 176 reflejar discos de hardware internos, 75 76 reflejo diferencias en el tamao de los dispositivos, 58 discos raz advertencia, 205 reflejos en tres direcciones, 58 registrar los grupos de dispositivos de VxVM, 209 Registro de reas modificadas (DRL), planificacin, 57 registro de los sistemas de archivos del clster, planificar, 57 registro de sistemas de archivos, planificar, 57 registro de UFS, planificar, 57 reinicio automtico al producirse errores en la ruta del disco, 96 reparacin, datos de mediador, 196197
reparar, conflictos relacionados con el nmero menor, 211212 rplicas de base de datos de estado, configurar, 172173 rootdg, Ver grupos de discos raz ruta de inicio alternativa, visualizar, 175 ruta mltiple de E/S de Solaris, habilitar, 74
S
scsnapshot, instalar paquetes de Solaris, 73 scsnapshot, instalar paquetes de Solaris, 116 secuencia de comandos finish , JumpStart, 117 servicio de asistencia tcnica, 1213 servicio de nombres aadir asignaciones de direccin IP, 71 aadir asignaciones de direcciones IP para zonas de direcciones IP exclusivas, 227 servicio rarpd, restriccin para los nodos del clster, 32 servicio RPC nmeros de programa restringidos, 32 restaurar el acceso externo, 79 servicios multiusuario comprobar, 95, 102, 120, 138, 225 servidores de qurum, instalar software Servidor de qurum, 6467 servidores de Sun Enterprise 10000, archivos serialports , 69 servidores de Sun Fire 15000, nmeros de puerto serie, 69 servidores del qurum archivo /etc/scqsd/scqsd.conf , 66 configurar como dispositivos del qurum, 149 154 desinstalar, 268269 directorio de instalacin, 66 directrices, 30 eliminar, 268269 entradas de archivo de mscara de red, 150 iniciar, 66 paquetes instalados, 66 requisitos como dispositivo del qurum, 150 solucin de problemas, 66
servidores NIS, restriccin para los nodos del clster, 32 servidores Sun Enterprise 10000 compatibilidad con la reconfiguracin dinmica, 74 variable kernel_cage_enable, 74 servidores Sun Fire 15000, direcciones IP, 27 sistema de archivos de bucle (LOFS), agregar un sistema de archivos del clster a una zona no global, 23 sistema de archivos de bucle invertido (LOFS) inhabilitar, 96, 103, 121, 140 restriccin, 17 sistema de archivos de bucle invertido (Loopback File System, LOFS), restriccin, 48 sistema de archivos de clster comprobar la configuracin, 220 opciones de montaje, 219 sistema de archivos de red (NFS) directrices para los nodos del clster, 3031 restriccin de HA para NFS con LOFS, 30 31 Sistema de archivos de Veritas (VxFS) administrar, 220 instalar, 77 montaje de sistemas de archivos de clster, 220 montar sistemas de archivos de clster, 52 planificar, 52, 57 restricciones, 52 sistema de archivos raz (/), reflejar, 173 176 sistema operativo Solaris 10 SMF, 95, 102, 120, 138, 225 sistemas de archivos de clster agregar a un clster de zona, 246 248 restriccin de LOFS, 48 restricciones VxFS, 52 sistemas de archivos de migracin tras error, Ver sistemas de archivos locales de alta disponibilidad sistemas de archivos del clster aadir a un nuevo nodo, 73 advertencia, 217 configurar, 217221 instalar aplicaciones, 49 planificar, 4653 restricciones clsteres de zona,
48
sistemas de archivos del clster, restricciones (Continuacin) comando fattach , 49 cuotas, 48 forcedirectio , 53 LOFS, 17 puntos finales de comunicacin, 49 zonas no globales, 23 zonas no globales, 227 229 sistemas de archivos globales Ver sistemas de archivos de clster Ver sistemas de archivos del clster sistemas de archivos locales, aadir un clster de zona, 241242 sistemas de archivos locales de alta disponibilidad Ver tambin HAStoragePlus alternativa a los sistemas de archivos del clster, 48 compatibilidad de las cuotas, 48 inhabilitar LOFS para ejecutar HA para NFS, 96, 103, 121, 140 restriccin de LOFS con HA para NFS, 17 SMF comprobar servicios en lnea, 95, 102, 120, 138, 225 SNMP, puerto de Sun Management Center, 254 software Cluster Control Panel (CCP) inicio, 70 instalar, 67 70 restriccin de LDoms, 67 software de Solaris grupo de software mnimo, 1819 instalar instalacin nica, 7075 planificar, 1626 administradores de volmenes, 21 grupos de software, 1819 particiones, 1922 sistema de archivos /globaldevices , 20 21 sistema de archivos raz (/), 20 restricciones apagado automtico para ahorro de energa, 18 filtro IP de Solaris, 18 zonas, 17 software multirruta de E/S de Solaris, restriccin de
LDoms, 25
software Solaris instalar con el software Oracle Solaris Cluster, 107 125 software Sun Explorer, 169170 software Sun Logical Domains (LDoms) directrices, 24 26 dominios invitados nombres de adaptadores virtuales, 39 restriccin de Cluster Control Panel, 67 instalar, 7677 restriccin de software multirruta, 25 Solaris Trusted Extensions crear un clster de zona, 233 240 directrices, 4546 preparar el clster global, 230233 Solaris Volume Manager archivo md.tab, 190191 coexistencia con VxVM, 202 configurar, 171184 conjuntos de discos aadir un clster de zona, 250 251 aadir unidades, 187189 configurar, 185187 reconfigurar particiones de unidades, 189 190 mediadores Ver mediadores de dos cadenas mediadores de dos cadenas aadir hosts, 194 195 estado, 195 informacin general, 193197 reparar datos errneos, 196 197 mensajes de error, 176 metadispositivos aadir a un clster de zona, 248249 nombres de dispositivo de disco bsico, 219 planificar, 5556 reflejar discos raz, 173 espacio de nombres de dispositivos globales, 176 178
sistema de archivos raz (/), 173176 rplicas de base de datos de estado, 172 173 volmenes activacin, 191193
solucin de problemas configurar clsteres globales nuevos, 98, 105, 141, 146 nodos adicionales, 141 desinstalacin, 265 dispositivos de qurum recuento de votos, 154 dispositivos del qurum clsetup error, 154 grupos de discos de VxVM, 211 instalacin del servidor de qurum, 66 instalacin mediante JumpStart, 125 reflejar sistemas de archivos de dispositivos globales, 178 sistemas de archivos que no se pueden desmontar, 181 sistemas de archivos que se pueden desmontar, 184 sistemas de archivos raz, 176 registro de lnea de base de configuracin de explorer , 169170 solucionar problemas aadir nodos al mdulo de Oracle Solaris Cluster a Sun Management Center, 258 grupos de discos locales de VxVM, 213 SSP, Ver dispositivos de acceso a la consola Sun Management Center inicio, 256257 mdulo de Oracle Solaris Cluster, 253 259 agregar nodos, 257258 cargar, 258259 instalar, 255256 requisitos de instalacin, 254 Sun QFS aadir sistemas de archivos a un clster de zona, 244246 instalar el software, 82 SunPlex Manager, desinstalar, 267268 SU N W C u ser, grupo de software mnimo, 1819 swap, planificar, 19
U
unidades aadir a conjuntos de discos, 187189 creacin de reflejos de dispositivos con distintos tamaos, 58 reconfigurar particin, 189190 unidades de discos, Ver unidades
T
Trusted Extensions, Ver Solaris Trusted Extensions
V
valor de tamao de pila, 78 valor del tamao de pila, 211 valor del tamao de pila de subprocesos, 211 variable ce_taskq_disable , 81, 122 variable ipge_taskq_disable , 81, 122 variable ixge_taskq_disable , 81, 122 variable kernel_cage_enable, 74 verificar configuracin del qurum, 155156 configuraciones de grupos de discos de VxVM, 212214 estado de los nodos del clster, 95, 102, 124, 139 instalacin del software Oracle Solaris Cluster, 155156 modo de instalacin, 155 nombres de host privados, 157 procesamiento del comandocldevice, 185 reinicio automtico al producirse errores en la ruta del disco, 96 Veritas Volume Manager (VxVM) asignacin de nombre basada en contenedor, 56 coexistencia con Solaris Volume Manager, 54 configurar, 199207 grupos de discos, 208210 grupos de discos locales, 208210 nodos sin VxVM, 202 volmenes, 208210 crear reflejos del disco raz encapsulado, 205 207 desencapsular disco raz, 214216 discos raz advertencia durante la encapsulacin, 215 desencapsular, 214216 encapsular, 203 restriccin de encapsulacin para ZFS, 57
Veritas Volume Manager (VxVM) (Continuacin) encapsular disco raz, 203 funcin de clster crear grupos de discos compartidos, 209 requisito de instalacin, 54 grupo de discos raz planificar, 56 grupo de dispositivos asignar un nuevo nmero menor, 211 212 grupos de discos configurar, 208210 registrar, 209 solucionar problemas de grupos de discos locales, 213 solucionar problemas de registro, 211 verificar las configuraciones, 212 214 grupos de discos compartidos descripcin, 207 grupos de discos locales configurar, 208210 descripcin, 207 solucionar problemas, 213 grupos de discos raz anular la configuracin de discos raz, 214 216 configurar discos raz, 203 configurar en discos que no sean raz, 204 205 planificar, 200201 sencillos, 56 grupos de dispositivos importar y exportar, 213 instalar, 199207 nombres de dispositivos de disco bsico, 219 planificacin, 5657 planificar, 21 volmenes Solaris Volume Manager activar, 191193 VxVM configurar, 208210 verificar, 212 volmenes locales requisito de nombre exclusivo, 55 VxFS, Ver Sistema de archivos de Veritas (VxFS)
vxio nmero mayor del controlador, nodos sin VxVM, 202 VxVM, Ver Veritas Volume Manager (VxVM)
Z
zonas, Ver zonas de Solaris zonas de direcciones IP compartidas, Ver contenedores Oracle Solaris zonas de direcciones IP exclusivas, Ver contenedores Oracle Solaris zonas de Solaris aislar para dispositivos NAS, 31, 45 configurar, 223229 convenciones de nomenclatura, 3435 LOFS coexistencia con HA para NFS, 2224 requisitos, 17 requisitos de instalacin, 17 sistemas de archivos del clster montar con HAStoragePlus, 227 229 zonas de Solaris zones, directrices, 2224 zonas globales, Ver zonas de Solaris zonas no globales Ver clsteres de zona Ver zonas de Solaris zonas Solaris sistemas de archivos del clster restriccin, 23 zonas de IP exclusiva directrices, 24