Documente Academic
Documente Profesional
Documente Cultură
www.4linux.com.br
4Linux – www.4linux.com.br 3.2 Discos e Particionamento
O pulo do gato é que o grupo de volumes lógicos pode combinar o espaço de vários
HDs e ser modificado conforme necessário, incorporando mais HDs. Os volumes
lógicos dentro dele também podem ser redimensionados livremente conforme for
necessário.
Se você precisa de mais espaço dentro do volume referente à pasta /home, por
exemplo, você poderia reduzir o tamanho de um dos outros volumes do sistema (que
estivesse com espaço vago) e aumentar o tamanho do volume referente ao /home,
tudo isso com o servidor operante.
Caso seja utilizada uma controladora SCSI ou SAS com suporte a hot-swaping, é
possível até mesmo adicionar, remover ou substituir HDs, fazendo as alterações
necessárias nos volumes lógicos, com o servidor ligado!
É importante enfatizar que o LVM é apenas uma mudança na forma como o sistema
acessa os discos, ele não é um substituto para o RAID. No LVM você pode agrupar
vários HDs em um único grupo de volumes lógicos, mas se um dos HDs apresentar
defeito, o servidor ficará inoperante e você perderá os dados armazenados no disco
afetado, diferente do RAID, onde você pode sacrificar parte do espaço para ter uma
camada de redundância.
O grupo de volumes lógicos criado pelo instalador é visto pelo sistema como "/de-
v/vg01"e os volumes lógicos dentro dele são vistos como "/dev/vg01/lv01", "/de-
v/vg01/lv02", etc. Os nomes podem ser alterados da maneira que quiser. Natu-
ralmente, é possível também deixar de usar o LVM, voltando ao sistema normal de
particionamento. Nesse caso, você só precisa deletar os volumes e o grupo de vol-
umes lógicos e criar a partições desejadas usando o espaço disponível.
http://www.hardware.com.br/dicas/entendendo-lvm.html
Uma implementação melhor do LVM é em conjunto com volumes RAID, pois no caso
de falhar um dos discos, continuamos com a leitura/gravação nos demais. Em re-
lação ao usuário, o mesmo nem saberá que tem toda esta estrutura por trás da
manipulação dos dados!
Dois critérios precisam ser considerados para escolha dos discos: vazão (through-
put) e volume de armazenamento.
Parte dessa operações tem perfil sequencial, enquanto as outras, perfil aleatório.
Se possível, utilize RAID 10. É o mais caro, mas garantidamente, o mais rápido e
seguro.
Foi explicado que a distribuição da instalação por vários discos traz benefícios ao
desempenho de leitura e gravação.
Este critério de particionamento vai servir para diminuir o tempo de “seek”, que é
o movimento dos cabeçotes na mídia física para ir de um segmento de dados até
outro segmento. Em outras palavras, este particionamento diminui a fragmentação
dos dados.
1 root@mail :~ # pvs
2 root@mail :~ # vgs
3 root@mail :~ # lvs
3.3.1 Pré-requisitos
Todos os serviços do Zimbra são configurados para se identificarem por nome, nunca
por um IP diretamente.
1 root@mail :~ # hostname -f
Observação: O parâmetro -f indica que a resposta deve ser o nome totalmente qual-
ificado do servidor (FQDN), ou seja, o hostname seguido pelo nome de domínio.
Uma dica importante é: utilize um FQDN público, pois será preciso configurá-lo no
registro reverso do IP de conexão com a Internet.
• recursiva
• iterativa
Por essa razão, um FQDN deve terminar com um ".", que representa a raiz da ár-
vore. O aliases podem ser outros hostnames canônicos, ou simples sufixos, para
simplificar a escrita de determinados endereços. Após a instalação do sistema, o
Pode ser acrescentadas quantas entradas forem necessárias, inclusive para IPs ex-
ternos. Atualmente, os sistemas baseados em Ubuntu já contém entradas para en-
dereçamento IPv6, que seguem a mesma lógica.
3.3.3 BIND9
O BIND vai utilizar a porta 53/UDP para receber consultas, a porta 53/TCP
para transferir zonas para servidores escravos, a porta 953/TCP para receber co-
mandos via rndc (que dependem de chaves criptografadas), e portas udp altas po-
dem ser dinamicamente atribuídas para efetuar consultas em outros servidores.
Quanto maior a rede, pior o impacto. A alternativa para evitar estes problemas é man-
ter um servidor DNS caching only. Servidores cache reservam o resultado de suas
buscas na memória pelo tempo limite estabelecido pela autoridade sobre o domínio
consultado. Dessa forma, independente da quantidade de máquinas da rede, as
consultas serão feitas na Internet apenas uma vez a cada intervalo de atualização.
A empresa Dexter possui um servidor BIND que já está operando como servidor
cache na máquina DMZ e Mail. Para testar:
Para que a partir de agora todas nossas aplicações utilizem o potencial de nosso
servidor cache, edite o arquivo /etc/resolv.conf e mantenha apenas as linhas a seguir:
Neste curso usaremos um servidor DNS pronto para todas as máquinas trocarem
e-mails.
Para conhecer mais detalhes e boas práticas sobre configurações DNS para servi-
dores de e-mail, consulte na Internet:
http://antispam.br/admin/conf-servicos/dns/
O único serviço de rede que deve ser pré-instalado é o SSH, pois o Zimbra vai utilizá-
lo para o gerenciamento de filas de e-mail e também para todo tipo de comunicação
entre os serviços de uma instalação distribuída.
Os e-mails que trafegam para fora do Zimbra tem seu horário de envio baseado no
horário do servidor. Por isso, evite confusões mantendo este relógio sincronizado
com o Network Time Protocol (NTP).
Acrescente a seguinte linha, para executar dois ajustes por dia, 12:00 e 00:00:
1 root@mail :~ # crontab -e
2 0 12 ,00 * * * / usr / sbin / ntpdate 200.160.0.8
Por outro lado, o universo vai precisar acessar pelo menos a porta 25/TCP de seu
servidor, pois é nela que são entregues os e-mails.
110, 143, 995 e 993 TCP: Respectivamente POP, IMAP, POPS e IMAPS;
http://www.zimbra.com/downloads/os-downloads.html