Sunteți pe pagina 1din 66

Oracle 10gR2 RAC: Administrao

Ricardo Portilho Proni


ricardo@nervinformatica.com.br

<Insert Picture Here>

Cursos Hands On

Aprendizado
Viso: 5% Audio: 8% Viso e Audio: 12% Execuo: 22% Execuo com erro: 42%

E 50% perdido em 2 anos...

<Insert Picture Here>

Cursos Nerv

Cursos Nerv
Oracle 11gR2: Backup & Recovery (3 Sbados) RMAN 11gR2 - Configurao RMAN 11gR2- Backup RMAN 11gR2 - Recovery RMAN 11gR2 - Avanado Oracle 11gR2: Performance Diagnostics & Tuning (3 Sbados) Oracle Event Interface OLTP Performance Tuning DW Performance Tuning Oracle 11gR2: RAC REAL (3 Sbados) Instalao / Configurao / Administrao / Performance Tuning Oracle 11gR2: Data Guard REAL (3 Sbados) Instalao / Configurao / Administrao Switch Over / Switch Back / Failover

Diferenciais
Cursos nicos no mercado. Material impresso e digital. Contrato e Nota fiscal. Facilidade no pagamento. Estacionamento grtis. Anlise no ambiente do Cliente (Treinamento In Company). Carta de recomendao do Instrutor.

<Insert Picture Here>

Instrutor

Instrutor
Com cerca de 20 anos de experincia profissional, j trabalhou em grande parte dos maiores bancos de dados Oracle do Brasil. atualmente o Coordenador do CES Centro de Excelncia Solvo, unidade dedicada s atividades de consultoria, arquitetura, pr-venda e suporte 3o. Nvel da Solvo S/A, empresa especializada na implementao e suporte de ambientes de misso crtica e atuao em toda a Amrica Latina. Foi eleito pela Oracle Corporation um Oracle ACE Member, um dos maiores especalistas do mundo em tecnologia de banco de dados. Tambm foi palestrante do V ENPO (Encontro Nacional de Profissionais Oracle), sobre Load Balance em RAC, conselheiro do GPO (Grupo de Profissionais Oracle), e escritor regular de artigos para a revista SQL Magazine.

Instrutor
Certificaes
Oracle ACE Oracle Database 10g Administrator Certified Associate Oracle Database 10g Administrator Certified Professional Oracle Database 10g: RAC Administrator Certified Expert Oracle Database 10g: Managing Oracle on Linux Certified Expert Microsoft Certified Professional Microsoft Certified Database Administrator Microsoft Certified Technology Specialist: SQL Server 2005 Microsoft Certified IT Professional: Database Administrator Certified MySQL Database Administrator IBM Certified Database Associate IBM Certified Database Administrator Sybase Adaptive Server Administrator Associate

Alunos

10

Alunos
Se apresente.
Trabalha, estuda? Comente sua experincia com Oracle. Diga algo interessante sobre voc.

11

<Insert Picture Here>

I Daemons

12

Daemons
<Insert Picture Here>

- CRS Cluster Ready Services (crsd) - CSS Cluster Syncronization Services (cssd) - EVM Event Manager (evmd)

13

Daemons - Logs
- Alert Log $CRS_HOME/log/<node>/alert_<node>.log
- CRS Cluster Ready Services (crsd) $CRS_HOME/log/<node>/crsd
<Insert Picture Here>

- CSS Cluster Syncronization Services (cssd) $CRS_HOME/log/<node>/cssd


- EVM Event Manager (evmd) $CRS_HOME/log/<node>/evmd

Outros Logs

- VIP e ONS $CRS_HOME/log/<node>/racg - OCR Applications $CRS_HOME/log/<node>/client

14

<Insert Picture Here>

LAB I Daemons

Hands On !

15

LAB - Daemons
- Ligue o RAC1. - Acompanhe a execuo dos daemons via top. - Aps o Banco ORCL subir no RAC1, ligue o RAC2. - Veja o que acontece no alert_rac1.log enquanto o RAC2 inicia. $ tail -f $CRS_HOME/log/rac1/alert_rac1.log - Acompanhe a execuo dos daemons via top no RAC2. - Familiarize-se com os diretrios de logs. - Veja o que foi atualizado nos Logs. (Para ver o que est funcionando, use crs_stat -t)
<Insert Picture Here>

16

<Insert Picture Here>

LAB I Daemons

Hands Off !

17

<Insert Picture Here>

II srvctl

18

srvctl
- A partir de qualquer Node, controla todos. - Pode ser utilizado com o usurio oracle. - Comando preferencial para iniciar e parar recursos do RAC. - Administra Database, Instances, ASM, Listeners e Services. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado.
<Insert Picture Here>

19

<Insert Picture Here>

LAB II srvctl

Hands On !

20

LAB - srvctl
- Execute srvctl -h e entenda as opes. - Pare o Listener de apenas um Node.
<Insert Picture Here>

- Pare a Instance de apenas um Node.


- Inicie novamente o Listener que est parado. - inicie novamente a Instance que est parada.

- Pare o Database.
- Pare o ASM das 2 Instances. - Inicie o Database, sem iniciar o ASM de nenhuma Instance.

- Mate a Instance de um dos ns, e veja o que acontece.


(Para ver o que est funcionando, use crs_stat -t)

21

<Insert Picture Here>

LAB II srvctl

Hands Off !

22

<Insert Picture Here>

III crs_stat

23

crs_stat
- A partir de qualquer Node, controla todos.
- Visualizao do Status dos componentes do CRS. <Insert Picture Here>

- Pode ser utilizado com o usurio oracle.

24

crs_stat
[root@rac1 ~]# crs_stat -f NAME=ora.ORCL.ORCL1.inst TYPE=application ACTION_SCRIPT=/u01/app/oracle/product/10.2.0/db_1/bin/racgwrap ACTIVE_PLACEMENT=0 AUTO_START=2 CHECK_INTERVAL=600 RESTART_ATTEMPTS=1 RESTART_COUNT=0 DESCRIPTION=CRS application for Instance FAILOVER_DELAY=0 FAILURE_INTERVAL=0 HOSTING_MEMBERS=rac1 OPTIONAL_RESOURCES= PLACEMENT=restricted REQUIRED_RESOURCES= ora.rac1.ASM1.asm SCRIPT_TIMEOUT=600 START_TIMEOUT=0 STOP_TIMEOUT=0 UPTIME_THRESHOLD=7d ...

<Insert Picture Here>

25

crs_stat
USR_ORA_ALERT_NAME= USR_ORA_CHECK_TIMEOUT=0 USR_ORA_CONNECT_STR=/ as sysdba USR_ORA_DEBUG=0 USR_ORA_DISCONNECT=false USR_ORA_FLAGS= USR_ORA_IF= USR_ORA_INST_NOT_SHUTDOWN= USR_ORA_LANG= USR_ORA_NETMASK= USR_ORA_OPEN_MODE= USR_ORA_OPI=false USR_ORA_PFILE= USR_ORA_PRECONNECT=none USR_ORA_SRV= USR_ORA_START_TIMEOUT=0 USR_ORA_STOP_MODE=immediate USR_ORA_STOP_TIMEOUT=0 USR_ORA_VIP= FAILURE_THRESHOLD=0 FAILURE_COUNT=0 TARGET=OFFLINE STATE=OFFLINE

<Insert Picture Here>

26

<Insert Picture Here>

LAB III crs_stat

Hands On !

27

LAB - crs_stat
Familiarize-se com as formas de uso do crs_stat: - crs_stat -h
<Insert Picture Here>

- crs_stat -t
- crs_stat -ls - crs_stat

- crs_stat ora.ORCL.ORCL2.inst
- crs_stat -v - crs_stat -p

- crs_stat -f

28

<Insert Picture Here>

LAB III crs_stat

Hands Off !

29

<Insert Picture Here>

IV crs_start e crs_stop

30

crs_start e crs_stop
<Insert Picture Here>

- A partir de qualquer Node, controla todos.


- Deve ser utilizado com o usurio root. - Comando para iniciar e parar recursos controlados pelo Clusterware

31

<Insert Picture Here>

LAB IV crs_start e crs_top

Hands On !

32

LAB crs_start e crs_stop


Verifique as opes do crs_start e crs_stop. crs_start -h crs_stop -h <Insert Picture Here>

Pare e Inicie alguns recursos, mostrados pela sada do crs_stat.

33

<Insert Picture Here>

LAB IV crs_start e crs_stop

Hands Off !

34

<Insert Picture Here>

V crsctl

35

crsctl
- A partir de qualquer Node, controla todos. - Deve ser utilizado com o usurio root. - Principal comando de administrao do Clusterware. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado. - Necessrio para verificao e alterao de parmetros. - Necessrio para Troubleshooting e Debug.
<Insert Picture Here>

36

<Insert Picture Here>

LAB V crsctl

Hands On !

37

LAB - crsctl
Verifique as opes do crsctl, digitando crsctl, sem opes. Verifique o status dos Daemons: crsctl check crs crsctl check cssd crsctl check crsd crsctl check evmd Verifique informaes: crsctl query crs activeversion crsctl query crs softwareversion <Insert Picture Here>

Verifique e altere parmetros: crsctl get css misscount crsctl get css disktimeout crsctl set css misscount 3600 crsctl set css disktimeout 3600

38

LAB - crsctl
Listagem de mdulos do Cluster: crsctl lsmodules crs crsctl lsmodules css crsctl lsmodules evm Coloque um dos mdulos informados pelo comando anterior (lsmodules), e coloque ele em modo Debug: crsctl debug log crs CRSCOMM:2

Para parar todo o Node: crsctl stop crs


Para iniciar todo o Node: crsctl start crs

39

<Insert Picture Here>

LAB V crsctl

Hands Off !

40

<Insert Picture Here>

VI OCR

41

OCR Oracle Cluster Registry


- o centro das informaes do RAC. - Deve estar em Storage compartilhado por todos Nodes. - Pode ter 1 mirror. - Ferramentas do OCR: ocrconfig, ocrcheck, ocrdump. - Ferramentas do OCR devem ser utilizadas como root. - Pode ser alterado de qualquer Node. - Backups do OCR so executados automaticamente. - Backups armazenados: 1 semanal, 1 dirio, e 1 a cada 4 horas. - Podem ser executados backups fsicos e lgicos.
<Insert Picture Here>

42

<Insert Picture Here>

LAB VI OCR

Hands On !

43

LAB - OCR
Execute o ocrcheck, e verifique o resultado. Ao executar o ocrcheck, um log gerado em: $CRS_HOME/log/<hostname>/client/ocrcheck_<pid>.log <Insert Picture Here>

Execute o ocrdump, e analise o contedo do dump (OCRDUMPFILE).


Verifique os backups fsicos existentes do OCR: ocrconfig -showbackup Faa um backup lgico: crsctl stop crs (Em todos os Nodes...) ocrconfig -export /home/oracle/OCR.bkp Restaure este backup lgico: ocrconfig -import /home/oracle/OCR.bkp Verifique se o OCR est vlido: cluvfy comp ocr -n rac1,rac2 Inicie novamente o crs, em todos Nodes: crsctl start crs

44

<Insert Picture Here>

LAB VI OCR

Hands Off !

45

<Insert Picture Here>

VII Voting Disks

46

Voting Disk
- o centro do ping dos Nodes. - Pode ter 2 mirrors. - Pode ser alterado de qualquer Node. - Backups do Voting Disk so manuais. - Todas operaes do Voting Disk devem ser executadas como root. - Deve ser feito backup aps Adio ou Remoo de Nodes. - Com base nas informaes nele, o Clusterware decide que Node faz parte do Cluster (Election / Eviction / Split Brain).
<Insert Picture Here>

47

<Insert Picture Here>

LAB VII Voting Disk

Hands On !

48

LAB - Voting Disk


Verifique o status do Voting Disk: crsctl query css votedisk Execute backup do Voting Disk: dd if=/u01/oradata/votingdisk of=/home/oracle/votingdisk.bkp Adicione um Voting Disk: crsctl stop crs crsctl add css votedisk /u01/oradata/votingdisk-mirror -force Verifique o status dos Voting Disks: crsctl start crs crsctl query css votedisk Remova o novo Voting Disk: crsctl stop crs crsctl delete css votedisk /u01/oradata/votingdisk-mirror -force <Insert Picture Here>

49

<Insert Picture Here>

LAB VII Voting Disk

Hands Off !

50

<Insert Picture Here>

VIII oifcfg

51

oifcfg
- A partir de qualquer Node, controla todos.

- Deve ser utilizado com o usurio root.


- Ferramenta para administrao dos IPs Pblico, Interconnect, e VIPs. - Necessrio para alterao de rede dos Nodes.

52

<Insert Picture Here>

LAB VIII oifcfg

Hands On !

53

LAB - oifcfg
srvctl stop database -d ORCL srvctl stop asm -n rac1 srvctl stop asm -n rac2 srvctl stop nodeapps -n rac1 srvctl stop nodeapps -n rac2 Verique no Vmware qual a Rede Host-Only. Logar no ambiente grfico do RAC1, como root, e alterar o IP. Logar no ambiente grfico do RAC2, como root, e alterar o IP. No RAC1, alterar /etc/hosts para os novos IPs. No RAC2, alterar /etc/hosts para os novos IPs. No RAC1, verifique se esta linha est coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac1 rac1.localdomain No RAC2, verifique se esta linha est coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac2 rac2.localdomain <Insert Picture Here>

54

Altere os VIPs: srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a srvctl modify nodeapps -n rac1 -A 172.16.131.111/255.255.255.0/eth0 srvctl modify nodeapps -n rac2 -A 172.16.131.112/255.255.255.0/eth0 srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a Inicie os servios do Clusterware: srvctl start nodeapps -n rac1 srvctl start nodeapps -n rac2 Altere os IPs Pblico e do Interconnect: oifcfg getif oifcfg delif -global eth0 oifcfg delif -global eth1 oifcfg setif -global eth0/172.16.131.0:public oifcfg setif -global eth1/172.16.132.0:cluster_interconnect oifcfg getif Inicie o Banco com srvctl.

<Insert Picture Here>

55

<Insert Picture Here>

LAB VIII oifcfg

Hands Off !

56

<Insert Picture Here>

IX Rolling Upgrades

57

Rolling Upgrades
<Insert Picture Here>

- Permite aplicao de Patches sem indisponibilidade.


- Para-se uma Instance, aplica-se o Patch, inicia a Instance, e parte para a Instance seguinte. - O Patch precisa suportar o Rolling Upgrade. - S possvel utilizando-se um ORACLE_HOME para cada Node. - Necessrio para alterao de rede dos Nodes.

58

<Insert Picture Here>

LAB IX Rolling Upgrades

Hands On !

59

LAB Rolling Upgrades


Pare o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd $ORACLE_HOME/8290506 $ORACLE_HOME/OPatch/opatch apply Inicie o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Pare o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd /home/oracle/8290506 $ORACLE_HOME/OPatch/opatch apply Inicie o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o SQL do Patch, em apenas um Node: cd $ORACLE_HOME/rdbms/admin sqlplus / AS SYSDBA SQL> @catbundle.sql cpu apply SQL> QUIT <Insert Picture Here>

60

<Insert Picture Here>

LAB IX Rolling Upgrades

Hands Off !

61

<Insert Picture Here>

X Adicionar e Remover Nodes

62

Adicionar e Remover Nodes


Sequncia para adicionar Node: Instalar Hardware; Instalar Sistema Operacional; Configurar Storage; - Instalar Clusterware; - Instalar Oracle; - Configurar o Listener; - Adicionar Instances (ASM e Database). Sequncia para remover Node: - Remover Instance (Database e ASM); Remover Listener; Remover Oracle; Alterar Inventories dos outros Nodes; Remover configuraes de rede do OCR (oifconfig); Remover o Node do OCR; Remover Clusterware; Alterar Inventories dos outros Nodes;
<Insert Picture Here>

. -

63

<Insert Picture Here>

LAB X Adicionar 1 Node

Hands On !

64

LAB Adicionar 1 Node


Ligue o RAC3. Para instalar o Clusterware, execute em qualquer Node j existente: $CRS_HOME/oui/bin/addNode.sh <Insert Picture Here>

Para instalar o Oracle, execute em qualquer Node j existente: $ORACLE_HOME/oui/bin/addNode.sh


No novo Node, configure o Listener com o NETCA. No novo Node, adicione a Instance do ASM com o DBCA.

No novo Node, adicione a Instance do Database com o DBCA.

65

<Insert Picture Here>

LAB X Adicionar 1 Node

Hands Off !

66

S-ar putea să vă placă și