Documente Academic
Documente Profesional
Documente Cultură
Arquitetura e Manutenção
de Computadores I
Governador
Cid Ferreira Gomes
Vice Governador
Francisco José Pinheiro
Secretária da Educação
Maria Izolda Cela de Arruda Coelho
Secretário Adjunto
Maurício Holanda Maia
Secretário Executivo
Antônio Idilvan de Lima Alencar
Sumário
1. Introdução .................................................................................................................................................2
Os Algoritmos.............................................................................................................................................................. 3
A Revolução Industrial............................................................................................................................................... 3
Babbage e Ada............................................................................................................................................................. 3
A Lógica Binária ......................................................................................................................................................... 5
Shannon e a Teoria da Informação ........................................................................................................................... 5
Hollerith e sua máquina de perfurar cartões ........................................................................................................... 6
O primeiro computador ............................................................................................................................................. 6
A guerra e os computadores....................................................................................................................................... 6
O nascimento da Ciência da Computação................................................................................................................ 7
O Trabalho Teórico..................................................................................................................................................... 8
Alan Turing ................................................................................................................................................................. 8
O Teste de Turing........................................................................................................................................................ 9
Von Neumann.............................................................................................................................................................. 9
Primeiros computadores pessoais............................................................................................................................ 10
A Apple e a popularização........................................................................................................................................ 10
Os computadores pessoais para empresas.............................................................................................................. 11
A Parceria IBM - Microsoft ..................................................................................................................................... 12
A aposta da Apple para continuar no topo ............................................................................................................. 13
Os "IBM-PC Compatíveis" ..................................................................................................................................... 14
Gerações de computadores ...................................................................................................................................... 14
Realizações para a sociedade ................................................................................................................................... 15
2. Unidade lógica e aritmética ....................................................................................................................16
Primeiro desenvolvimento........................................................................................................................................ 16
Sistemas numéricos................................................................................................................................................... 17
Visão geral prática .................................................................................................................................................... 17
Operações simples.................................................................................................................................................................... 17
Operações complexas............................................................................................................................................................... 17
Entradas e Saídas ..................................................................................................................................................................... 18
ULA vs. UPF............................................................................................................................................................................ 18
3. Registradores ...........................................................................................................................................20
4. Processadores RISC x CISC ...................................................................................................................22
5. Modelos Recentes de Processadores .......................................................................................................24
6. Conversão de Bases Numéricas..............................................................................................................25
7. Álgebra Booleana....................................................................................................................................32
8. Portas e Circuitos Lógicos ......................................................................................................................36
Referências Bibliográficas ..........................................................................................................................41
1. Introdução
A capacidade do ser humano em calcular quantidades nos mais variados modos foi
um dos fatores que possibilitaram o desenvolvimento da matemática e da lógica.
Nos primórdios da matemática e da álgebra, utilizavam-se os dedos das mãos para
efetuar cálculos.
Na região do Mar Mediterrâneo, surgiram o alfabeto e o ábaco.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é
atribuída a habitantes da Mesopotâmia, em torno de 2400 a.C.. Seu uso original era
desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são
usadas como instrumento de cálculo.
O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa
de bronze cheia de sulcos. Também surgiram alguns termos matemáticos: em latim
"Calx" significa mármore, assim "Calculos" era uma bolinha do ábaco, e fazer
cálculos aritméticos era "Calculare".
No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de
Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante
sistemática e técnica. Pānini usou meta-regras, transformações e recursividade com
tamanha sofisticação que sua gramática possuía o poder computacional teórico tal
qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do
século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos.
Quando John Napier descobriu os logaritmos para uso computacional no século XVI,
seguiu-se um período de considerável progresso na construção de ferramentas de
cálculo.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os
ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que
evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635),
sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida
durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma
documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina,
por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina
calculadora, que fazia apenas somas e subtrações.
A primeira calculadora capaz de realizar as operações básicas de soma e subtração
foi inventada em 1642 pelo filósofo, físico e matemático francês Blaise Pascal.
Pascal, que aos 18 anos trabalhava com seu pai em um escritório de coleta de
impostos na cidade de Rouen, desenvolveu a máquina para auxiliar o seu trabalho
de contabilidade. A calculadora usava engrenagens que a faziam funcionar de
maneira similar a um odômetro. Pascal recebeu uma patente do rei da França para
que lançasse sua máquina no comércio. A comercialização de suas calculadoras não
foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter
construído cerca de 50 versões.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos
em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático
alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o
qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo
girar de uma simples alavanca.
Em 1671, o filósofo e matemático alemão de Leipzig,Gottfried Wilhelm Leibniz
introduziu o conceito de realizar multiplicações e divisões através de adições e
subtrações sucessivas. Em 1694, a máquina foi construída, no entanto, sua
operação apresentava muita dificuldade e sujeita a erros.
Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como
Thomas de Colmar,projetou e construiu uma máquina capaz de efetuar as 4
operações aritméticas básicas: a Arithmomet. Esta foi a primeira calculadora
realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo
princípio da calculadora de Leibnitz e efetuava as divisões com a assistência do
usuário.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral,
pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de
números, mas não de instruções a respeito do que fazer com os números.
Os Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o
sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o
matemático persa Al-Khwarizmi escreveu o livro Calculando com numerais hindus,
responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio,
e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo
livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos
conceitos para definir seqüências de passos para completar tarefas, como
aplicações de aritmética e álgebra. Por derivação do nome, atualmente usa-se o
termo algoritmo.
A Revolução Industrial
Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard,
mecânico francês, (1752-1834) inventou um tear mecânico controlado por grandes
cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos
bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando
levou o tear para Lyon, pois as pessoas tinham medo de perder o emprego. Em
sete anos, já havia 11 mil teares desse tipo operando na França.
Babbage e Ada
A origem da ideia de programar uma máquina vem da necessidade de que as
máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII
foi criada uma forma de representar os padrões em cartões de papel perfurado, que
eram tratados manualmente. Em 1801, Joseph Marie Jacquard (1752-1834) inventa
um tear mecânico, com uma leitora automática de cartões.
A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage
(1792-1871), um professor de matemática de Cambridge, a desenvolver uma
máquina de "tecer números", uma máquina de calcular onde a forma de calcular
pudesse ser controlada por cartões.
Foi com Charles Babbage que o computador moderno começou a ganhar forma,
através de seu trabalho no engenho analítico. O equipamento, apesar de nunca ter
Informática – Arquitetura de Computadores I 3
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional
A Lógica Binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de
numeração binário. Ainda usado atualmente no processamento de todos
computadores modernos, o sistema estabelece que seqüências específicas de uns e
zeros podem representar qualquer número, letra ou imagem.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e
matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também
representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido.
Levou mais de um século para que George Boole publicasse a álgebra booleana (em
1854), com um sistema completo que permitia a construção de modelos
matemáticos para o processamento computacional. Em 1801 apareceu o tear
controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual
buracos indicavam os uns, e áreas não furadas indicavam os zeros. O sistema está
longe de ser um computador, mas ilustrou que as máquinas poderiam ser
controladas pelo sistema binário.
As máquinas do início do século XIX utilizavam base decimal (0 a 9), mas foram
encontradas dificuldades em implementar um dígito decimal em componentes
eletrônicos, pois qualquer variação provocada por um ruído causaria erros de
cálculo consideráveis.
O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da
lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e
falso), que passou a ser utilizada a partir do início do século XX.
O primeiro computador
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (1910-
1995). Em 1936, esse engenheiro alemão construiu, a partir de relés que
executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Há uma grande
polêmica em torno do primeiro computador. O Z-1 é considerado por muitos como o
primeiro computador eletro-mecânico. Zuse tentou vender o computador ao
governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de
guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos
americanos de desenvolver seus computadores.
A guerra e os computadores
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A
Marinha americana, em conjunto com a Universidade de Harvard, desenvolveu o
computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no
calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente,
conseguindo multiplicar dois números de dez dígitos em três segundos.
Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados
Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu
em 1944 o Mark I, um gigante eletromagnético. Num certo sentido, essa máquina
era a realização do projeto de Babbage.
Mark I ocupava 120 m3, tinha milhares de relés e fazia muito barulho. Uma
multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada.
Em segredo, o exército norte-americano também desenvolvia seu computador. Esse
usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com
Informática – Arquitetura de Computadores I 6
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional
maior precisão.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto
semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo
resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And
Calculator (ENIAC)2], capaz de fazer quinhentas multiplicações por segundo. Tendo
sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo
pelo governo americano até o final da guerra, quando foi anunciado ao mundo.
O engenheiro John Presper Eckert (1919-1995) e o físico John Mauchly (1907-1980)
projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18 000
válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou
pronto em 1946, vários meses após o final da guerra. Os custos para a manutenção
e conservação do ENIAC eram proibitivos, pois dezenas a centenas de válvulas
queimavam a cada hora e o calor gerado por elas necessitava ser controlado por
um complexo sistema de refrigeração, além dos gastos elevadíssimos de energia
elétrica.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto
John von Neumann propôs a ideia que transformou os calculadores eletrônicos em
"cérebros eletrônicos": modelar a arquitetura do computador segundo o sistema
nervoso central. Para isso, eles teriam que ter três características:
1. Codificar as instruções de uma forma possível de ser armazenada na
memória do computador. Von Neumann sugeriu que fossem usados uns e
zeros.
2. Armazenar as instruções na memória, bem como toda e qualquer
informação necessária a execução da tarefa, e
3. Quando processar o programa, buscar as instruções diretamente na
memória, ao invés de lerem um novo cartão perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez,
versatilidade e automodificação. Assim, o computador programável que
conhecemos hoje, onde o programa e os dados estão armazenados na memória
ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa ideia, von Neumann publicou sozinho um artigo. Eckert e Mauchy
não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele.
O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava
criado o computador moderno.
O Trabalho Teórico
Os fundamentos matemáticos da ciência da computação moderna começaram a
serem definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa
teoria mostra que existem limites no que pode ser provado ou desaprovado em um
sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para
definir e descrever tais sistemas formais, incluindo conceitos como recursividade e
cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos,
introduziram a formalização de um algoritmo, definindo os limites do que pode ser
computado, e um modelo puramente mecânico para a computação. Tais tópicos são
abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre
a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer
cálculo possível pode ser realizado por um algoritmo sendo executado em um
computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui
uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela
fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal
modelo pode simular a computação de qualquer algoritmo executado em um
computador moderno. Turing é bastante importante para a ciência da computação,
tanto que seu nome é usado para o Turing Award e o teste de Turing. Ele contribuiu
para as quebras de código da Grã-Bretanha na Segunda Guerra Mundial, e
continuou a projetar computadores e programas de computador pela década de
1940; cometeu suicídio em 1954.
Alan Turing
Alan Mathison Turing nasceu em 23 de junho de 1912 em Londres, filho de um
oficial britânico, Julius Mathison e Ethel Sara Turing. Seu interesse pela ciência
começou cedo, logo que aprendeu a ler e escrever, distraia-se fatorando números
de hinos religiosos e desenhando bicicletas anfíbias. A maior parte do seu trabalho
foi desenvolvido no serviço de espionagem, durante a II Grande Guerra, levando-o
somente por volta de 1975 a ser reconhecido como um dos grandes pioneiros no
campo da computação, Em 1928, Alan começou a estudar a Teoria da Relatividade,
conhecendo Christopher Morcom, que o influenciou profundamente. Morcom morreu
em 1930 e Alan se motivou a fazer o que o amigo não teve tempo, durante anos
trocou correspondências com a mãe de Morcom a respeito das idéias do amigo e se
maravilhou com a possibilidade de resolver problemas com a teoria mecânica
quântica.Chegou inclusive a escrever sobre a possibilidade do espírito sobreviver
após a morte.
Depois de concluir o mestrado em King's College (1935) e receber o Smith's prize
em 1936 com um trabalho sobre a Teoria das Probabilidades, Turing se enveredou
pela área da computação. Sua preocupação era saber o que efetivamente a
computação poderia fazer. As respostas vieram sob a forma teórica, de uma
máquina conhecida como Turing Universal Machine, que possibilitava calcular
qualquer número e função, de acordo com instruções apropriadas.
Quando a II Guerra Mundial eclodiu, Turing foi trabalhar no Departamento de
O Teste de Turing
O teste consistia em submeter um operador, fechado em uma sala, a descobrir se
quem respondia suas perguntas, introduzidas através do teclado, era um outro
homem ou uma máquina. Sua intenção era de descobrir se podíamos atribuir à
máquina a noção de inteligência.
Von Neumann
O matemático húngaro John Von Neumann (1903-1957) formalizou o projeto lógico
de um computador.
Em sua proposta, Von Neumann sugeriu que as instruções fossem armazenadas na
memória do computador. Até então elas eram lidas de cartões perfurados e
executadas, uma a uma. Armazená-las na memória, para então executá-las,
tornaria o computador mais rápido, já que, no momento da execução, as instruções
seriam obtidas com rapidez eletrônica.
A maioria dos computadores hoje em dia segue o modelo proposto por Von
Neumann. Esse modelo define um computador seqüencial digital em que o
processamento das informações é feito passo a passo, caracterizando um
comportamento determinístico (ou seja, os mesmos dados de entrada produzem
sempre a mesma resposta).
Os mainframes
surgiam cada vez
maiores e caros,
sendo utilizados
apenas por grandes
empresas.
A Apple e a popularização
Em 1976, outra dupla de jovens, Steve Jobs e Steve Wozniak, iniciou outra
empresa que mudaria o rumo da informática: a Apple.
Jobs e Wozniak abandonaram a Universidade de Berkeley para poderem se
dedicar( ao projeto de computador pessoal criado por Wozniak, o Apple I. Como
Wozniak trabalhava para a HP, o seu projeto precisava ser apresentado para a
empresa que recusou de imediato a idéia. Isso abriu o caminho para a criação da
Apple, empresa fundada pelos dois que comercializaria os computadores. Montados
na garagem de Jobs, os 200 primeiros computadores foram vendidos nas lojas da
vizinhança a US$ 500 cada. Interessado no projeto, Mike Makula (na época vice-
presidente de marketing da Intel), resolveu investir US$ 250 mil na Apple.
O IBM PC utilizava
o PC-DOS e
possuia a BIOS
como única parte
de produção
exclusiva da IBM.
Por isso, a empresa criou uma força tarefa especial para desenvolver o novo
produto. Assim, um grupo de 12 engenheiros liderados por William C. Lowe foi
instalado em um laboratório em Boca Raton, na Flórida, longe dos principais centros
de desenvolvimento da corporação que, até hoje, ficam na Califórnia e em Nova
Iorque. O resultado desse trabalho foi o IBM-PC, que tinha um preço de tabela de
US$ 2.820, bem mais caro que os concorrentes, mas foi um sucesso imediato. Em
4 meses foram vendidas 35 mil unidades, 5 vezes mais do que o esperado. Como
observou o jornalista Robert X Cringley: "ninguém nunca tinha sido despedido por
comprar produtos IBM". Os micros deixaram definitivamente de ser um brinquedo.
Os "IBM-PC Compatíveis"
O mesmo grupo que criou o IBM-PC também definiu que o componente básico do
computador, a BIOS, seria de fabricação exclusiva da IBM. Esse chip tem a
finalidade de fornecer aos PCs uma interface de entrada e saída de dados. Como
todos os outros componentes do computador eram fabricados por outras empresas,
a IBM tinha nesses chips a sua maior fonte de renda e a única coisa que vinculava
qualquer PC à IBM.
Gerações de computadores
A arquitetura de um computador depende do seu projeto lógico, enquanto que a
sua implementação depende da tecnologia disponível.
As três primeiras gerações de computadores refletiam a evolução dos componentes
básicos do computador (hardware) e um aprimoramento dos programas (software)
existentes.
Os computadores de primeira geração (1945–1959) usavam válvulas eletrônicas,
quilômetros de fios, eram lentos, enormes e esquentavam muito.
esquemático típico
para uma ULA, onde
"A" e "B" são
operandos, "R" é a
saída, "F" é a
entrada da unidade
de controle e "D" é a
saída de status
Primeiro desenvolvimento
Em 1946, von Neumann trabalhou com seus colegas no projeto de um computador
para o Instituto de Estudos Avançados de Princeton (Princeton Institute of
Advanced Studies -IAS). O computador IAS se tornara o protótipo de muitos
computadores. Na proposta, von Neumann descreveu o que ele acreditava que
seria preciso na sua máquina, incluindo uma ULA. Von Neumann disse que a ULA
era uma necessidade para o computador porque ela garantiria que o computador
calcularia operações matemáticas básicas, incluindo adição, subtração,
multiplicação, e divisão..[1] Ele então achava razoável que um computador
contivesse um órgão especializado para essas operações.[1]
Sistemas numéricos
Uma ULA deve processar números usando o mesmo formato que o resto do circuito
digital. Nos modernos processadores, que quase sempre é o número binário em
representação de complemento para dois. Os primeiros computadores usavam uma
grande variedade de sistemas numéricos, incluindo os formatos complemento para
um, sinal-magnitude e mesmo o sistema decimal. ULAs para cada um desses
Operações simples
Muitas ULA podem realizar as seguintes
operações:
Operações aritméticas com inteiros
Operações lógicas bit a bit And, Not, Or, XOR
Operações de deslocamento de bits (deslocamento, rotação por um
número específico de bits para esquerda ou direita, com ou sem sinal).
Deslocamentos podem ser interpretados como multiplicações ou divisões por 2.
Operações complexas
Um engenheiro pode projetar uma ULA para calcular qualquer operação, no entanto
isso gera complexidade; o problema é que quanto mais complexa a operação, mais
cara é a ULA, mais espaço utiliza do processador e mais dissipa energia. Então,
engenheiros sempre calculam um compromisso entre o poder de processamento e a
sua complexidade, satisfazendo aos requisitos do processador ou de outro circuito.
Imagine um cenário, onde é preciso calcular a raiz quadrada. O engenheiro teria as
seguintes opções:
1. Projetar uma ULA extremamente complexa que calcula a raiz quadrada
de qualquer número num único passo. Isso é chamado cálculo em passo-único de
clock.
2. Projetar uma ULA bastante complexa que calcula a raiz quadrada de
qualquer número em vários passos. Mas, existe um truque, os resultados
intermediários vão através de uma série de circuitos arranjados em linha, como
numa linha de produção. Que faz com que a ULA seja capaz de aceitar novos
números para cálculo antes mesmo de terminar o cálculo dos anteriores. Isso faz
com que a ULA seja capaz de produzir números tão rápido como cálculos em passo-
único de relógio, com um atraso inicial até os números começarem a sair. Isso é
Entradas e Saídas
As entradas para a ULA são os dados a serem operados (chamados operandos) e o
código da unidade de controle indicando as operações para executar. As saídas são
os resultados da computação.
Em muitos projetos a ULA também leva ou gera as entradas ou saídas um conjunto
de códigos de condições de ou para um registro de status. Esses códigos são
usados para indicar casos como vai-um (empresta-um), (em inglês)overflow,
divisão-por-zero.
3. Registradores
Sempre houve uma grande polêmica em torno de qual dessas plataformas é melhor.
Na verdade, você já deve ter ouvido muito boatos como "Os Macs são mais rápidos
por que tem chips RISC" ou algo do gênero. O objetivo deste artigo é falar um
pouco sobre as duas plataformas e como elas coexistem atualmente.
Pode parecer estranho que um chip que é capaz de executar algumas poucas
instruções, possa ser considerado por muitos, mais rápido do que outro que
executa centenas delas, seria como comparar um professor de matemática com
alguém que sabe apenas as quatro operações. Mas o que acontece, é que um
processador RISC é capaz de executar tais instruções muito mais rapidamente. A
idéia principal, é que apesar de um processador CISC ser capaz de executar
centenas de instruções diferentes, apenas algumas são usadas freqüentemente.
Poderíamos então criar um processador otimizado para executar apenas estas
instruções simples que são usadas mais freqüentemente. Em conjunto com um
software adequado, este processador seria capaz de desempenhar quase todas as
funções de um processador CISC, acabando por compensar suas limitações com
uma maior velocidade de processamento.
Core I3
Core I5
SLBLH i5-750S 2,40 GHz 3,2 GHz 4 Não Não 8 MB 45 nm 82 76,7 0,65 - 1,4
SLBLC i5-750 2,66 GHz 3,2 GHz 4 Não Não 8 MB 45 nm 95 72,7 0,65 - 1,4
SLBTM i5-680 3,6 GHz 4,86 GHz 2 Sim Sim 4 MB 32 nm 73 0,65 - 1,4
SLBLT i5-670 3,56 GHz 3,73 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4
SLBNE i5-661 3,33 GHz 3,6 GHz 2 Sim Sim 4 MB 32 nm 87 69,8 0,65 - 1,4
SLBLV i5-660 3,33 GHz 3,6 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4
SLBLK i5-650 3,20 GHz 3,46 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4
Core I7
Temp. Máxima
sSpec Modelo Clock Interno Turbo Boost TDP (W) o Alimentação (V) Soquete
( C)
SLBEU 960 3,2 GHz 3,46 GHz 130 67,9 0,8 - 1,375 1366
SLBEN 950 3,06 GHz 3,32 GHz 130 67,9 0,8 - 1,375 1366
940
SLBCK 2,93 GHz 3,2 GHz 130 67,9 0,8 - 1,375 1366
SLBEJ 920 2,66 GHz 2,93 GHz 130 67,9 0,8 - 1,375 1366
SLBCH 920 2,66 GHz 2,93 GHz 130 67,9 0,8 - 1,375 1366
SLBJG 870 2,93 GHz 3,6 GHz 95 72,7 0,64 - 1,4 1156
SLBLG 860s 2,53 GHz 3,46 GHz 82 76,7 0,65 - 1,4 1156
SLBJJ 860 2,8 GHz 3,46 GHz 95 72,7 0,65 - 1,4 1156
Na tabela abaixo há uma lista dos modelos do processador Core i7 Extreme para
desktops lançados até o momento. Esses modelos têm um barramento QPI
funcionando a uma velocidade maior (3,2 GHz, 6,4 GB/s) e têm seu multiplicador
de clock destravado, dando mais essa possibilidade de overclock.
Temp. Máxima
sSpec Modelo Clock Interno Turbo Boost TDP (W) o Alimentação (V) Soquete
( C)
SLBEQ 975 3,33 GHz 3,6 GHz 130 67,9 0,8 - 1,375 1366
SLBCJ 965 3,2 GHz 3,46 GHz 130 67,9 0,8 - 1,375 1366
Phenon X3
Contr. Temp.
Modelo OPN (Box) OPN (Tray) Clock HT TDP
Rev. Mem. Máx. (º C) Alim.
8850 HD8850WCGHBOX HD8850WCJ3BGH 2,5 GHz B3 1,8 GHz 7,2 GB/s 95 W 71 1,05 V - 1,25 V
8750 HD875ZWCGHBOX HD875ZWCJ3BGH 2,4 GHz B3 1,8 GHz 7,2 GB/s 95 W 71 1,05 V - 1,25 V
8750 HD8750WCGHBOX HD8750WCJ3BGH 2,4 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8650 HD8450WCGHBOX HD8650WCJ3BGH 2,3 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8600 - HD8600WCJ3BGD 2,3 GHz B2 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8450e HD8450ODGHBOX HD8450ODJ4BGH 2,1 GHz B3 1,8 GHz 7,2 GB/s 65 W 71 1,05 V - 1,25 V
8450 HD8450WCGHBOX HD8450WCJ3BGH 2,1 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8400 - HD8400WCJ3BGD 2,1 GHz B2 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8250e HD8250ODGHBOX HD8250ODJ4BGH 1,9 GHz B3 1,8 GHz 7,2 GB/s 65 W 71 1,05 V - 1,25 V
Turion 64
Modelo Clock Interno TDP Cache L2 Soquete
MK-38 2,2 GHz 31 W 512 KB S1
MK-36 2,0 GHz 31 W 512 KB S1
ML-44 2,4 GHz 35 W 1 MB 754
ML-42 2,4 GHz 35 W 512 KB 754
ML-40 2,2 GHz 35 W 1 MB 754
ML-37 2,0 GHz 35 W 1 MB 754
ML-34 1,8 GHz 35 W 1 MB 754
ML-32 1,8 GHz 35 W 512 KB 754
ML-30 1,6 GHz 35 W 1 MB 754
ML-28 1,6 GHz 35 W 512 KB 754
MT-40 2,2 GHz 25 W 1 MB 754
MT-37 2,0 GHz 25 W 1 MB 754
MT-34 1,8 GHz 25 W 1 MB 754
MT-32 1,8 GHz 25 W 512 KB 754
MT-30 1,6 GHz 25 W 1 MB 754
MT-28 1,6 GHz 25 W 512 KB 754
Fonte:http://www.clubedohardware.com.br/pagina/processadores
Principais Conversões
Exemplos:
(10)10 = (1010)2
0,828125 x 2 = 1,65625
0,65625 x 2 = 1,3125
0,3125 x 2 = 0,625
0,625 x 2 = 1,25
0,25 x 2 = 0,5
0,5 x 2 = 1
(500)10 = (764)8
0,140625 x 8 = 1,125
0,125 x 8 = 1
(0,140625)10 = (0,11)8
0,06640625 x 16 = 1,0625
0,0625 x 16 = 1
(0,06640625)10 = (0,11)16
Exemplos:
101011 = 1 x 25 + 0 x 24 + 1 x 23 + 0 x 22 + 1 x 21 + 1 x 20
= 32 + 0 + 8 + 0 + 2 + 1 = 43, logo: (101011)2 = (43)10
4 0100 4 4
5 0101 5 5
6 0110 6 6
7 0111 7 7
8 1000 10 8
9 1001 11 9
10 1010 12 A
11 1011 13 B
12 1100 14 C
13 1101 15 D
14 1110 16 E
15 1111 17 F
Tabela 1. Equivalência entre os sistemas de numeração.
Exemplo:
(2BC)16 = (?)2
Exemplo:
(1274)8 = (?)2
Exemplo:
* (100101100)2 = (?)16
* (100101001000,1011011)2 = (?)16
Exemplo:
* (1010111100)2 = (?)8
* (1100101000,1011)2 = (?)8
(1F4)16 = (?)8
1 = 0001, F = 1111, 4 = 0100 (pela tabela 1), logo: (1F4)16 =
(111110100)2
Da direita para a esquerda: 100 = 4, 110 = 6, 111 = 7 (pela tabela 1),
logo: (111110100)2 = (764)8
Assim: (1F4)16 = (764)8
8. Octal -> Hexadecimal
(144)8 = (?)16
7. Álgebra Booleana
A f(A) =A'
0 1
1 0
Veja que, para duas ou mais variáveis, o número possível de funções que podem
ser construidas é de 22n, onde n é o número de variáveis. Para duas variáveis, 22.2
= 16 (apenas 16 possibilidades de construção de funções lógicas de apenas 2
variáveis).
0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
0 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
1 0 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
Para 3 variáveis, 22.3 = 64 funções possíveis, e assim por diante.Na tabela cima, A
e B são as variáveis independentes e fi(A,B) são as variáveis dependentes,
conhecidas por funções de variáveis lógicas, funções combinatoriais ou, ainda,
funções combinacionais. A função lógica fi(A,B) pode ser representada por uma
caixa preta cujo conteúdo implementa um tipo de porta ou uma combinação das
mesmas. Por exemplo, para a tabela acima, algumas funções são
Qualquer circuito lógico pode ser considerado como uma caixa preta como descrita
acima. Para exemplificar, veja como "encapsular" um circuito lógico em uma "caixa
preta" (não se incomode se a o azul é usado no lugar do preto),
Observe que o modelo caixa preta é muito mais geral que o outro que já está
especificado. O que se sabe do modelo caixa preta é a quantidade de circuitos que
podem ser gerados a partir de 4 entradas e 1 saída. Quantos são mesmo?
Uma função combinacional é uma solução para um problema combinacional. Como
exemplo de um problema combinacional, considere um sistema de segurança de
uma loja em um shopping. Há um sensor de contato que, ligado, (on, V ou 1),
indica que a porta está fechada; e outro sensor infravermelho que, ligado, indica
que não há pessoas ou coisas se movendo no interior da loja. Há, também, um
alarme que é acionado quando um dos dois sensores é desligado. Isto é, basta um
único sensor ser desativado para soar o alarme. Denomine cada sensor pelos
simbolos A e B,
1. A = "sensor de contato"
2. B = "sensor infravermelho"
Informática – Arquitetura de Computadores I 32
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional
Diagramas Lógicos
Os diagramas lógicos serão estudados, com detalhes, no tópico Portas Lógicas. Mas
apenas para exemplificar, a função alarme aqui tratada poderia ser especificada
através do seguinte diagrama lógico,
Uma função combinacional pode ser escrita de várias maneiras, sem ser alterada,
fazendo-se uso dos Teoremas da Álgebra de Boole. Por exemplo,
(A . B)' = A' + B'
onde, como visto, os simbolos "'" e "+" representam a negação (NOT) e a
disjunção (OR), respectivamente. Aqui usou-se um dos teoremas conhecidos como
Leis de De Morgan. Os principais teoremas da Álgebra Booleana são,
Como qualquer prova de teorema, a cada passo em direção à prova, você tem que
dizer o porque do passo. Veja este exemplo (a prova do teorema 10),
A . (A + B)
= (pelo teorema 16)
A.A+A.B
= (teo. 7)
A+A.B
= (teo. 5)
A .1 + A . B
= (teo. 16)
A . (1 + B)
= (teo. 2)
A.1
= (teo. 5)
A
A A'
0 1
1 0
A B A.B
0 0 0
OR
0 1 0
A porta OR mais simples
1 0 0
possui, também, 2
1 1 1 entradas e 1 saída,
A B A+ B
0 0 0
0 1 1
1 0 1
1 1 1
NAND
É equivalente à 1 (uma) porta AND seguida de 1 (uma) porta NOT,
A B (A. B)'
0 0 1
0 1 1
1 0 1
1 1 0
NOR
É equivalente à 1 (uma) porta OR seguida de 1 (uma) porta NOT,
A B (A+ B)'
0 0 1
XOR
0 1 0
Éo
1 0 0
OU
1 1 0 exclu
sivo,
A B XOR
A B XOR
0 0 0
0 1 1
1 0 1
XNOR
Equivalente à porta NOR seguida da porta NOT,
A B XNOR
0 0 1
0 1 0
1 0 0
1 1 1
AND-OR-INVERT (AOI)
Também disponível comercialmente. Sua estrutura contém portas AND, OR e NOT.
Veja sua importância no livro texto,
Porta OR
Lei de De Morgan
As leis de De Morgan também podem ser usadas para mostrar que uma porta NAND
com as entradas negadas é equivalente à uma porta AND e isso também é válido
para a porta NOR (dualidade), como também visto acima.
A variável ENABLE (HABILITA)
Um artifício muito utilizado em eletrônica digital é a variável ENABLE. Para saber o
que isso significa, pensemos no seguinte exemplo: suponha ter uma porta XOR
como a que foi mostrada acima; faça pequenas modificações em seu diagrama
lógico e em sua tabela-verdade,
Referências Bibliográficas
http://pt.wikipedia.org/wikipédia/wiki/história_da_computação
http://www.guiadohardware.net/artigos/risc-cisc/
http://www.di.ufpb.br/raimundo/Hierarquia/Registradores.html
http://www.clubedohardware.com.br/pagina/processadores
http://www.lia.ufc.br/~paty/icc/notas/4/index.html
http://www.inf.ufsc.br/ine5365/algboole.html
http://www.inf.ufsc.br/ine5365/portlog.html
PAIXÂO, Renato Rodrigues. Configuração e Montagem de PCs com Inteligência,
6ª edição. Editora Érica.
TANENBAUM, Andrew S. Organização Estruturada de Computadores, 5ª
EDIÇÃO. Editora Pearson.
Terra adorada,
Entre outras mil,
És tu, Brasil,
Ó Pátria amada!
Dos filhos deste solo és mãe gentil,
Pátria amada, Brasil!