Sunteți pe pagina 1din 47

Escola Estadual de

Educação Profissional - EEEP


Ensino Médio Integrado à Educação Profissional

Curso Técnico em Informática

Arquitetura e Manutenção
de Computadores I
Governador
Cid Ferreira Gomes

Vice Governador
Francisco José Pinheiro

Secretária da Educação
Maria Izolda Cela de Arruda Coelho

Secretário Adjunto
Maurício Holanda Maia

Secretário Executivo
Antônio Idilvan de Lima Alencar

Assessora Institucional do Gabinete da Seduc


Cristiane Carvalho Holanda

Coordenadora de Desenvolvimento da Escola


Maria da Conceição Ávila de Misquita Vinãs

Coordenadora da Educação Profissional – SEDUC


Thereza Maria de Castro Paes Barreto
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Sumário
1. Introdução .................................................................................................................................................2
Os Algoritmos.............................................................................................................................................................. 3
A Revolução Industrial............................................................................................................................................... 3
Babbage e Ada............................................................................................................................................................. 3
A Lógica Binária ......................................................................................................................................................... 5
Shannon e a Teoria da Informação ........................................................................................................................... 5
Hollerith e sua máquina de perfurar cartões ........................................................................................................... 6
O primeiro computador ............................................................................................................................................. 6
A guerra e os computadores....................................................................................................................................... 6
O nascimento da Ciência da Computação................................................................................................................ 7
O Trabalho Teórico..................................................................................................................................................... 8
Alan Turing ................................................................................................................................................................. 8
O Teste de Turing........................................................................................................................................................ 9
Von Neumann.............................................................................................................................................................. 9
Primeiros computadores pessoais............................................................................................................................ 10
A Apple e a popularização........................................................................................................................................ 10
Os computadores pessoais para empresas.............................................................................................................. 11
A Parceria IBM - Microsoft ..................................................................................................................................... 12
A aposta da Apple para continuar no topo ............................................................................................................. 13
Os "IBM-PC Compatíveis" ..................................................................................................................................... 14
Gerações de computadores ...................................................................................................................................... 14
Realizações para a sociedade ................................................................................................................................... 15
2. Unidade lógica e aritmética ....................................................................................................................16
Primeiro desenvolvimento........................................................................................................................................ 16
Sistemas numéricos................................................................................................................................................... 17
Visão geral prática .................................................................................................................................................... 17
Operações simples.................................................................................................................................................................... 17
Operações complexas............................................................................................................................................................... 17
Entradas e Saídas ..................................................................................................................................................................... 18
ULA vs. UPF............................................................................................................................................................................ 18
3. Registradores ...........................................................................................................................................20
4. Processadores RISC x CISC ...................................................................................................................22
5. Modelos Recentes de Processadores .......................................................................................................24
6. Conversão de Bases Numéricas..............................................................................................................25
7. Álgebra Booleana....................................................................................................................................32
8. Portas e Circuitos Lógicos ......................................................................................................................36
Referências Bibliográficas ..........................................................................................................................41

Informática – Arquitetura de Computadores I 1


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

1. Introdução
A capacidade do ser humano em calcular quantidades nos mais variados modos foi
um dos fatores que possibilitaram o desenvolvimento da matemática e da lógica.
Nos primórdios da matemática e da álgebra, utilizavam-se os dedos das mãos para
efetuar cálculos.
Na região do Mar Mediterrâneo, surgiram o alfabeto e o ábaco.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é
atribuída a habitantes da Mesopotâmia, em torno de 2400 a.C.. Seu uso original era
desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são
usadas como instrumento de cálculo.
O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa
de bronze cheia de sulcos. Também surgiram alguns termos matemáticos: em latim
"Calx" significa mármore, assim "Calculos" era uma bolinha do ábaco, e fazer
cálculos aritméticos era "Calculare".
No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de
Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante
sistemática e técnica. Pānini usou meta-regras, transformações e recursividade com
tamanha sofisticação que sua gramática possuía o poder computacional teórico tal
qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do
século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos.
Quando John Napier descobriu os logaritmos para uso computacional no século XVI,
seguiu-se um período de considerável progresso na construção de ferramentas de
cálculo.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os
ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que
evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635),
sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida
durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma
documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina,
por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina
calculadora, que fazia apenas somas e subtrações.
A primeira calculadora capaz de realizar as operações básicas de soma e subtração
foi inventada em 1642 pelo filósofo, físico e matemático francês Blaise Pascal.
Pascal, que aos 18 anos trabalhava com seu pai em um escritório de coleta de
impostos na cidade de Rouen, desenvolveu a máquina para auxiliar o seu trabalho
de contabilidade. A calculadora usava engrenagens que a faziam funcionar de
maneira similar a um odômetro. Pascal recebeu uma patente do rei da França para
que lançasse sua máquina no comércio. A comercialização de suas calculadoras não
foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter
construído cerca de 50 versões.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos
em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático
alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o

Informática – Arquitetura de Computadores I 2


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo
girar de uma simples alavanca.
Em 1671, o filósofo e matemático alemão de Leipzig,Gottfried Wilhelm Leibniz
introduziu o conceito de realizar multiplicações e divisões através de adições e
subtrações sucessivas. Em 1694, a máquina foi construída, no entanto, sua
operação apresentava muita dificuldade e sujeita a erros.
Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como
Thomas de Colmar,projetou e construiu uma máquina capaz de efetuar as 4
operações aritméticas básicas: a Arithmomet. Esta foi a primeira calculadora
realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo
princípio da calculadora de Leibnitz e efetuava as divisões com a assistência do
usuário.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral,
pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de
números, mas não de instruções a respeito do que fazer com os números.

Os Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o
sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o
matemático persa Al-Khwarizmi escreveu o livro Calculando com numerais hindus,
responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio,
e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo
livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos
conceitos para definir seqüências de passos para completar tarefas, como
aplicações de aritmética e álgebra. Por derivação do nome, atualmente usa-se o
termo algoritmo.

A Revolução Industrial
Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard,
mecânico francês, (1752-1834) inventou um tear mecânico controlado por grandes
cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos
bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando
levou o tear para Lyon, pois as pessoas tinham medo de perder o emprego. Em
sete anos, já havia 11 mil teares desse tipo operando na França.

Babbage e Ada
A origem da ideia de programar uma máquina vem da necessidade de que as
máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII
foi criada uma forma de representar os padrões em cartões de papel perfurado, que
eram tratados manualmente. Em 1801, Joseph Marie Jacquard (1752-1834) inventa
um tear mecânico, com uma leitora automática de cartões.
A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage
(1792-1871), um professor de matemática de Cambridge, a desenvolver uma
máquina de "tecer números", uma máquina de calcular onde a forma de calcular
pudesse ser controlada por cartões.
Foi com Charles Babbage que o computador moderno começou a ganhar forma,
através de seu trabalho no engenho analítico. O equipamento, apesar de nunca ter
Informática – Arquitetura de Computadores I 3
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

sido construído com sucesso, possuía todas as funcionalidades do computador


moderno. Foi descrito originalmente em 1837, mais de um século antes que
qualquer equipamento do gênero tivesse sido construído com sucesso. O grande
diferencial do sistema de Babbage era o fato que seu dispositivo foi projetado para
ser programável, item imprescindível para qualquer computador moderno.
Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular
polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu
calculador diferencial, a ideia de Jacquard fez com que Babbage imaginasse uma
nova e mais complexa máquina, o calculador analítico, extremamente semelhante
ao computador atual.
O projeto, totalmente mecânico, era composto de uma memória, um engenho
central, engrenagens e alavancas usadas para a transferência de dados da memória
para o engenho central e dispositivos para entrada e saída de dados. O calculador
utilizaria cartões perfurados e seria automático.
Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma
máquina de somar com precisão de cinqüenta dígitos. As instruções seriam lidas de
cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e
armazenados, para futuras referências, em um banco de mil registradores. Cada
um dos registradores seria capaz de armazenar um número de cinqüenta dígitos,
que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos
cálculos do moinho.
Por algum tempo, o governo britânico financiou Babbage para construir a sua
invenção.
Além disso tudo, Babbage imaginou a primeira máquina de impressão, que
imprimiria os resultados dos cálculos, contidos nos registradores. Babbage
conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu
completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje,
partes de sua máquina podem ser vistas no Museu Britânico, que também construiu
uma versão completa, utilizando as técnicas disponíveis na época.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros
programas de computador em uma série de notas para o engenho analítico. Por isso,
Lovelace é popularmente considerada como a primeira programadora. Em parceria
com Charles Babbage, Ada Augusta (1815-1852) ou Lady Lovelace, filha do poeta
Lord Byron, era matemática amadora entusiasta. Ela se tornou a pioneira da lógica
de programação, escrevendo séries de instruções para o calculador analítico. Ada
inventou o conceito de subrotina, descobriu o valor das repetições - os laços (loops)
e iniciou o desenvolvimento do desvio condicional.Junto com Babbage, trabalhou a
jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e
Ada Lovelace. Ada foi a primeira programadora da história, projetando e explicando,
a pedido de Babbage, programas para a máquina inexistente. Ada inventou os
conceitos de subrotina, uma seqüência de instruções que pode ser usada várias
vezes, loop, uma instrução que permite a repetição de uma seqüência de cartões, e
do salto condicional, que permite saltar algum cartão caso uma condição seja
satisfeita.
Babbage teve muitas dificuldades com a tecnologia da época, que era inadequada
para se construir componentes mecânicos com a precisão necessária. Com a

Informática – Arquitetura de Computadores I 4


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

suspensão do financiamento por parte do governo britânico, Babbage e Ada


utilizaram a fortuna da família Byron até a falência, sem que pudessem concluir o
projeto, e assim o calculador analítico nunca foi construído.
Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo,
tanto que até a década de 1940, nada se inventou parecido com seu computador
analítico. Até essa época foram construídas muitas máquinas mecânicas de somar
destinadas a controlar negócios (principalmente caixas registradoras) e algumas
máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos
de engenharia (que não alcançaram grande sucesso).

A Lógica Binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de
numeração binário. Ainda usado atualmente no processamento de todos
computadores modernos, o sistema estabelece que seqüências específicas de uns e
zeros podem representar qualquer número, letra ou imagem.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e
matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também
representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido.
Levou mais de um século para que George Boole publicasse a álgebra booleana (em
1854), com um sistema completo que permitia a construção de modelos
matemáticos para o processamento computacional. Em 1801 apareceu o tear
controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual
buracos indicavam os uns, e áreas não furadas indicavam os zeros. O sistema está
longe de ser um computador, mas ilustrou que as máquinas poderiam ser
controladas pelo sistema binário.
As máquinas do início do século XIX utilizavam base decimal (0 a 9), mas foram
encontradas dificuldades em implementar um dígito decimal em componentes
eletrônicos, pois qualquer variação provocada por um ruído causaria erros de
cálculo consideráveis.
O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da
lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e
falso), que passou a ser utilizada a partir do início do século XX.

Shannon e a Teoria da Informação


Até a década de 1930, engenheiros eletricistas podiam construir circuitos
eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia
sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou
com a tese de mestrado de Claude E. Shannon de 1937, A Symbolic Analysis of
Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi
exposto ao trabalho de George Boole, e percebeu que tal conceito poderia ser
aplicado em conjuntos eletro-mecânicos para resolver problemas de lógica. Tal ideia,
que utiliza propriedades de circuitos eletrônicos para a lógica, é o conceito básico
de todos os computadores digitais. Shannon desenvolveu a teoria da informação no
artigo de 1948 A Mathematical Theory of Communication, cujo conteúdo serve
como fundamento para áreas de estudo como compressão de dados e criptografia.

Informática – Arquitetura de Computadores I 5


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Hollerith e sua máquina de perfurar cartões


Por volta de 1890, Dr. Herman Hollerith (1860-1929) foi o responsável por uma
grande mudança na maneira de se processar os dados dos censos da época.
O próximo avanço dos computadores foi feito pelo americano Herman Hollerith
(1860-1929), que inventou uma máquina capaz de processar dados baseada na
separação de cartões perfurados (pelos seus furos). A máquina de Hollerith foi
utilizada para auxiliar no censo de 1890, reduzindo o tempo de processamento de
dados de sete anos, do censo anterior, para apenas dois anos e meio. Ela foi
também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos
cartões.
Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio
para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio,
com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar,
criadas por Hollerith e sua equipe.
As informações sobre os indivíduos eram armazenadas por meio de perfurações em
locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e
chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um
incremento de 1 em um contador mecânico.
Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação.
Anos depois, em 1924, essa companhia veio a se chamar como International
Business Machines, ou IBM, como é hoje conhecida.

O primeiro computador
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (1910-
1995). Em 1936, esse engenheiro alemão construiu, a partir de relés que
executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Há uma grande
polêmica em torno do primeiro computador. O Z-1 é considerado por muitos como o
primeiro computador eletro-mecânico. Zuse tentou vender o computador ao
governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de
guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos
americanos de desenvolver seus computadores.

A guerra e os computadores
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A
Marinha americana, em conjunto com a Universidade de Harvard, desenvolveu o
computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no
calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente,
conseguindo multiplicar dois números de dez dígitos em três segundos.
Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados
Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu
em 1944 o Mark I, um gigante eletromagnético. Num certo sentido, essa máquina
era a realização do projeto de Babbage.
Mark I ocupava 120 m3, tinha milhares de relés e fazia muito barulho. Uma
multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada.
Em segredo, o exército norte-americano também desenvolvia seu computador. Esse
usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com
Informática – Arquitetura de Computadores I 6
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

maior precisão.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto
semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo
resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And
Calculator (ENIAC)2], capaz de fazer quinhentas multiplicações por segundo. Tendo
sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo
pelo governo americano até o final da guerra, quando foi anunciado ao mundo.
O engenheiro John Presper Eckert (1919-1995) e o físico John Mauchly (1907-1980)
projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18 000
válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou
pronto em 1946, vários meses após o final da guerra. Os custos para a manutenção
e conservação do ENIAC eram proibitivos, pois dezenas a centenas de válvulas
queimavam a cada hora e o calor gerado por elas necessitava ser controlado por
um complexo sistema de refrigeração, além dos gastos elevadíssimos de energia
elétrica.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto
John von Neumann propôs a ideia que transformou os calculadores eletrônicos em
"cérebros eletrônicos": modelar a arquitetura do computador segundo o sistema
nervoso central. Para isso, eles teriam que ter três características:
1. Codificar as instruções de uma forma possível de ser armazenada na
memória do computador. Von Neumann sugeriu que fossem usados uns e
zeros.
2. Armazenar as instruções na memória, bem como toda e qualquer
informação necessária a execução da tarefa, e
3. Quando processar o programa, buscar as instruções diretamente na
memória, ao invés de lerem um novo cartão perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez,
versatilidade e automodificação. Assim, o computador programável que
conhecemos hoje, onde o programa e os dados estão armazenados na memória
ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa ideia, von Neumann publicou sozinho um artigo. Eckert e Mauchy
não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele.
O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava
criado o computador moderno.

O nascimento da Ciência da Computação


Antes da década de 1920, o computador era um termo associado a pessoas que
realizavam cálculos, geralmente liderados por físicos em sua maioria homens.
Milhares de computadores, eram empregados em projetos no comércio, governo e
sítios de pesquisa. Após a década de 1920, a expressão máquina computacional
começou a ser usada para referir-se a qualquer máquina que realize o trabalho de
um profissional computador, especialmente aquelas de acordo com os métodos da
Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido
computador no final da década de 1940, com as máquinas digitais cada vez mais
difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a
Informática – Arquitetura de Computadores I 7
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Máquina de Turing, que posteriormente evoluiu para o computador moderno.

O Trabalho Teórico
Os fundamentos matemáticos da ciência da computação moderna começaram a
serem definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa
teoria mostra que existem limites no que pode ser provado ou desaprovado em um
sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para
definir e descrever tais sistemas formais, incluindo conceitos como recursividade e
cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos,
introduziram a formalização de um algoritmo, definindo os limites do que pode ser
computado, e um modelo puramente mecânico para a computação. Tais tópicos são
abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre
a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer
cálculo possível pode ser realizado por um algoritmo sendo executado em um
computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui
uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela
fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal
modelo pode simular a computação de qualquer algoritmo executado em um
computador moderno. Turing é bastante importante para a ciência da computação,
tanto que seu nome é usado para o Turing Award e o teste de Turing. Ele contribuiu
para as quebras de código da Grã-Bretanha na Segunda Guerra Mundial, e
continuou a projetar computadores e programas de computador pela década de
1940; cometeu suicídio em 1954.

Alan Turing
Alan Mathison Turing nasceu em 23 de junho de 1912 em Londres, filho de um
oficial britânico, Julius Mathison e Ethel Sara Turing. Seu interesse pela ciência
começou cedo, logo que aprendeu a ler e escrever, distraia-se fatorando números
de hinos religiosos e desenhando bicicletas anfíbias. A maior parte do seu trabalho
foi desenvolvido no serviço de espionagem, durante a II Grande Guerra, levando-o
somente por volta de 1975 a ser reconhecido como um dos grandes pioneiros no
campo da computação, Em 1928, Alan começou a estudar a Teoria da Relatividade,
conhecendo Christopher Morcom, que o influenciou profundamente. Morcom morreu
em 1930 e Alan se motivou a fazer o que o amigo não teve tempo, durante anos
trocou correspondências com a mãe de Morcom a respeito das idéias do amigo e se
maravilhou com a possibilidade de resolver problemas com a teoria mecânica
quântica.Chegou inclusive a escrever sobre a possibilidade do espírito sobreviver
após a morte.
Depois de concluir o mestrado em King's College (1935) e receber o Smith's prize
em 1936 com um trabalho sobre a Teoria das Probabilidades, Turing se enveredou
pela área da computação. Sua preocupação era saber o que efetivamente a
computação poderia fazer. As respostas vieram sob a forma teórica, de uma
máquina conhecida como Turing Universal Machine, que possibilitava calcular
qualquer número e função, de acordo com instruções apropriadas.
Quando a II Guerra Mundial eclodiu, Turing foi trabalhar no Departamento de

Informática – Arquitetura de Computadores I 8


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Comunicações da Gran Bretanha (Government Code and Cypher School) em


Buckinghamshire, com o intuito de quebrar o código das comunicações alemãs,
produzido por um tipo de computador chamado Enigma. Este código era
constantemente trocado, obrigando os inimigos a tentar decodifica-lo correndo
contra o relógio. Turing e seus colegas cientistas trabalharam num sistema que foi
chamado de Colossus, um enorme emaranhado de servo-motores e metal,
considerado um precursor dos computadores digitais.
Durante a guerra, Turing foi enviado aos EUA a fim de estabelecer códigos seguros
para comunicações transatlânticas entre os aliados. Supõe-se que foi em Princeton,
NJ, que conheceu Von Neumann e daí ter participado no projeto do ENIAC na
universidade da Pensilvânia..
Terminada a guerra, Alan se juntou ao National Physical Laboratory para
desenvolver um computador totalmente inglês que seria chamado de ACE
(automatic computing engine).Decepcionado com a demora da construção, Turing
mudou-se para Manchester. Em 1952, foi preso por "indecência", sendo obrigado a
se submeter à pisicoanálise e a tratamentos que visavam curar sua
homosexualidade.Turing suicidou-se em Manchester, no dia 7 de junho de 1954,
durante uma crise de depressão, comendo uma maçã envenenada com cianureto de
potássio.

O Teste de Turing
O teste consistia em submeter um operador, fechado em uma sala, a descobrir se
quem respondia suas perguntas, introduzidas através do teclado, era um outro
homem ou uma máquina. Sua intenção era de descobrir se podíamos atribuir à
máquina a noção de inteligência.

Von Neumann
O matemático húngaro John Von Neumann (1903-1957) formalizou o projeto lógico
de um computador.
Em sua proposta, Von Neumann sugeriu que as instruções fossem armazenadas na
memória do computador. Até então elas eram lidas de cartões perfurados e
executadas, uma a uma. Armazená-las na memória, para então executá-las,
tornaria o computador mais rápido, já que, no momento da execução, as instruções
seriam obtidas com rapidez eletrônica.
A maioria dos computadores hoje em dia segue o modelo proposto por Von
Neumann. Esse modelo define um computador seqüencial digital em que o
processamento das informações é feito passo a passo, caracterizando um
comportamento determinístico (ou seja, os mesmos dados de entrada produzem
sempre a mesma resposta).

Primeiros computadores pessoais


Até o final dos anos 1970, reinavam absolutos os mainframes, computadores
enormes, trancados em salas refrigeradas e operados apenas por alguns poucos
privilegiados. Apenas grandes empresas e bancos podiam investir alguns milhões
de dólares para tornar mais eficientes alguns processos internos e o fluxo de
informações. A maioria dos escritórios funcionava mais ou menos da mesma
maneira que no começo do século. Arquivos de metal, máquinas de escrever, papel
Informática – Arquitetura de Computadores I 9
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

carbono e memorandos faziam parte do dia-a-dia.

Os mainframes
surgiam cada vez
maiores e caros,
sendo utilizados
apenas por grandes
empresas.

Segundo o Computer History Museum, o primeiro "computador pessoal" foi o


Kenbak-1, lançado em 1971. Tinha 256 bytes de memória e foi anunciado na
revista Scientific American por US$ 750; todavia, não possuía CPU e era, como
outros sistemas desta época, projetado para uso educativo (ou seja, demonstrar
como um "computador de verdade" funcionava). Em 1975, surge o Altair 8800, um
computador pessoal baseado na CPU Intel 8080. Vendido originalmente como um
kit de montar através da revista norte-americana Popular Electronics, os projetistas
pretendiam vender apenas algumas centenas de unidades, tendo ficado surpresos
quando venderam 10 vezes mais que o previsto para o primeiro mês. Custava cerca
de 400 doláres e se comunicava com o usuário através de luzes que piscavam.
Entre os primeiros usuários estavam o calouro da Universidade de Harvard, Bill
Gates, e o jovem programador, Paul Allen, que juntos desenvolveram uma versão
da linguagem "Basic" para o Altair. Pouco tempo depois, a dupla resolveu mudar o
rumo de suas carreiras e criar uma empresa chamada Microsoft.
Nos anos seguintes, surgiram dezenas de novos computadores pessoais como o
Radio Shack TRS-80 (O TRS-80 foi comercializado com bastante sucesso no Brasil
pela Prológica com os nomes de CP-300 e CP-500), Commodore 64, Atari 400 e
outros com sucesso moderado.

A Apple e a popularização

Em 1976, outra dupla de jovens, Steve Jobs e Steve Wozniak, iniciou outra
empresa que mudaria o rumo da informática: a Apple.
Jobs e Wozniak abandonaram a Universidade de Berkeley para poderem se
dedicar( ao projeto de computador pessoal criado por Wozniak, o Apple I. Como
Wozniak trabalhava para a HP, o seu projeto precisava ser apresentado para a
empresa que recusou de imediato a idéia. Isso abriu o caminho para a criação da
Apple, empresa fundada pelos dois que comercializaria os computadores. Montados
na garagem de Jobs, os 200 primeiros computadores foram vendidos nas lojas da
vizinhança a US$ 500 cada. Interessado no projeto, Mike Makula (na época vice-
presidente de marketing da Intel), resolveu investir US$ 250 mil na Apple.

Informática – Arquitetura de Computadores I 10


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

O Apple II foi lançado em


1977 com teclado integrado,
gráficos coloridos, sons,
gabinete de plástico e oito
slots de expansão.

Alguns meses depois, já em 1977, foi lançado o primeiro microcomputador como


conhecemos hoje, o Apple II. O equipamento já vinha montado, com teclado
integrado e era capaz de gerar gráficos coloridos. Parte da linguagem de
programação do Apple II havia sido feita pela Microsoft, uma variação do BASIC
para o Apple II. As vendas chegaram a US$ 2,5 milhões no primeiro ano de
comercialização e, com o seu rapido crescimento de vendas, a Apple tornou-se uma
empresa pública (ou seja, com ações que podem ser adquiridas por qualquer um na
bolsa de valores) e ela construiu a sua sede principal - Infinite Loop - em Cupertino,
Califórnia.
Com o sucesso do Apple II, vieram o Visicalc (a primeira planilha eletrônica
inventada), processadores de texto e programas de banco de dados. Os micros já
podiam substituir os fluxos de caixa feitos com cadernos e calculadoras, máquinas
de escrever e os arquivos de metal usados para guardar milhares de documentos.
Os computadores domésticos deixaram então de ser apenas um hobby de
adolescentes para se tornarem ferramentas indispensáveis para muitas pessoas.
Entretanto, até o começo dos anos 1980, muitos executivos ainda encaravam os
computadores pessoais como brinquedos. Além das mudanças de hábitos
necessárias para aproveitar a nova tecnologia, os mais conservadores tinham medo
de comprar produtos de empresas dirigidas por um rapaz de 26 anos que há menos
de 5 trabalhava na garagem dos pais.

Os computadores pessoais para empresas

Em 1980, a IBM estava convencida de que precisava entrar no mercado da


microinformática e o uso profissional dos micros só deslanchou quando ela entrou
nesse mercado. A empresa dominava (e domina até hoje) o mercado de
computadores de grande porte e, desde a primeira metade do século XX, máquinas
de escrever com sua marca estavam presentes nos escritórios de todo mundo.
Como não estava acostumada à agilidade do novo mercado, criado e dominado por
jovens dinâmicos e entusiasmados, a gigantesca corporação decidiu que o PC não
podia ser criado na mesma velocidade na qual ela estava acostumada a desenvolver
novos produtos.

Informática – Arquitetura de Computadores I 11


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

O IBM PC utilizava
o PC-DOS e
possuia a BIOS
como única parte
de produção
exclusiva da IBM.

Por isso, a empresa criou uma força tarefa especial para desenvolver o novo
produto. Assim, um grupo de 12 engenheiros liderados por William C. Lowe foi
instalado em um laboratório em Boca Raton, na Flórida, longe dos principais centros
de desenvolvimento da corporação que, até hoje, ficam na Califórnia e em Nova
Iorque. O resultado desse trabalho foi o IBM-PC, que tinha um preço de tabela de
US$ 2.820, bem mais caro que os concorrentes, mas foi um sucesso imediato. Em
4 meses foram vendidas 35 mil unidades, 5 vezes mais do que o esperado. Como
observou o jornalista Robert X Cringley: "ninguém nunca tinha sido despedido por
comprar produtos IBM". Os micros deixaram definitivamente de ser um brinquedo.

A Parceria IBM - Microsoft


Como todo computador, o IBM PC precisava de um Sistema Operacional para poder
ser utilizado. Durante o processo de desenvolvimento do IBM PC, houve uma
tentativa sem sucesso de contratar a Digital Research, uma empresa experiente na
criação de Sistemas Operacionais, para o desenvolvimento do Sistema Operacional
da IBM.
Sem outra alternativa, a IBM recorreu a Microsoft que ofereceu um Sistema
Operacional para a IBM, mas na verdade eles não tinham nada pronto. Ao assinar o
contrato de licenciamento do DOS (Disk Operating System - Sistema Operacional de
Disco) para a IBM, Bill Gates e Paul Allen foram atrás da Seatlle Computer, uma
pequena empresa que desenvolvia o Sistema Operacional QDOS e que o vendeu
para a Microsoft por US$ 50.000 sem imaginar o fim que esse sistema teria.
A Microsoft então adaptou-o e criou o PC-DOS. O contrato com a IBM previa uma
royalty (de 10 a 50 dólares por cada máquina vendida) e um pequeno pagamento
inicial. Mas o sistema continuava sobre propriedade da Microsoft, assim como a
possibilidade de distribuir versões modificadas (MS-DOS).
Esse contrato é, sem dúvida alguma, um dos mais importantes do século XX pois,
através desse contrato, a Microsoft deixou de ser uma microempresa de software
para se tornar a empresa mais poderosa no ramo da informática e tornar Bill Gates
um dos homens mais ricos do mundo atualmente.

A aposta da Apple para continuar no topo

Em dezembro de 1979, a Apple Computer era a empresa de maior sucesso da


microinformática. O carro chefe da empresa, o Apple II+ já estava presente em
escolas e residências da elite americana. Entretanto, as máquinas ainda eram
difíceis de usar. Para operar um microcomputador, era preciso conhecer a

Informática – Arquitetura de Computadores I 12


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

"linguagem" do sistema operacional e a sintaxe correta para aplicá-la. Todas as


interações do usuário com a máquina eram feitas através da digitação de comandos.
Uma letra errada e a operação não era realizada, exigindo a digitação do comando
correto. Assim, antes de aproveitar os benefícios da informática, era
indispensável aprender todos os comandos de controle do computador.O
computador da Apple estava com quase 2 anos de existência e já começava a ficar
velho. A empresa precisava criar algo novo para continuar competindo.
A aposta Apple para se
manter no topo do
mercado: o Macintosh.
Sua interface gráfica
deixava a IBM décadas
atrás.

A Xerox, empresa que dominava o mercado de copiadoras, acreditava que o seu


negócio poderia perder rentabilidade com a redução do fluxo de documentos em
papel, por causa do uso de documentos em formato eletrônico. Foi criado então, em
1970, o Palo Alto Research Center (PARC) com o intuito de inventar o futuro.Nessa
época o PARC desenvolvia muitas novidades como as redes locais e impressoras
laser, mas a pesquisa mais importante era a interface gráfica e o mouse. Após
grandes desastres na tentativa de comercializar computadores do PARC (o
computador do PARC saia por US$ 17 mil enquanto o da IBM custava apenas US$
2,8 mil), a Xerox desistiu do projeto.
Steve Jobs também desenvolvia nos laboratórios da Apple a interface gráfica.
Buscando saber detalhes de como ela ficaria depois de pronta, trocou opções de
compra de ações da Apple por uma visita detalhada de três dias ao PARC. O
primeiro produto lançado pela Apple usando os conceitos criados pela Xerox foi o
Lisa. Apesar de moderno, não chegou a ser produzido em grande quantidade, pois o
mercado não estava preparado para pagar quase US$ 10 mil apenas pela facilidade
de uso.
Em 1979 Jef Raskin, um especialista em interfaces homem-máquina, imaginou um
computador fácil de utilizar e barato para o grande público. Ele então lançou as
bases do projeto Macintosh. O projeto inovador do Macintosh atraiu a atenção de
Steve Jobs, que saiu do projeto Lisa com sua equipe para se concentrar no projeto
Macintosh. Em janeiro de 1981, ele tomou a direção do projeto, forçando Jef Raskin
a deixar o mesmo.
Em 24 de janeiro de 1984 surgiu o Macintosh, o primeiro computador de sucesso
com uma interface gráfica amigável, usando ícones, janelas e mouse. Sua acolhida
foi extremamente entusiástica, grande parte disso devido as campanhas
Informática – Arquitetura de Computadores I 13
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

publicitárias em massa da Apple. O principal anúncio de seu lançamento foi durante


o intervalo da Super Bowl XVIII (evento comparável com a importância da Copa do
Mundo para o Brasil). Essa propaganda é conhecida como "1984", pois era baseada
no livro "Nineteen Eighty-Four" (Mil Novecentos e Oitenta e Quatro) de George
Orwell, e retrata um mundo no qual todos eram submetidos ao regime totalitário do
"Big Brother" (Grande Irmão). Uma heroína representada por Anya Major destroí
um telão no qual o Big Brother falava ao público. O intuito do comercial era
relacionar a IBM ao "Big Brother" e a heroína à Apple.

Os "IBM-PC Compatíveis"

O mesmo grupo que criou o IBM-PC também definiu que o componente básico do
computador, a BIOS, seria de fabricação exclusiva da IBM. Esse chip tem a
finalidade de fornecer aos PCs uma interface de entrada e saída de dados. Como
todos os outros componentes do computador eram fabricados por outras empresas,
a IBM tinha nesses chips a sua maior fonte de renda e a única coisa que vinculava
qualquer PC à IBM.

A clonagem do BIOS quase


tirou a IBM do mercado de PCs.

Alguma empresas, dentre elas a Compaq, aplicaram a técnica de engenharia


reversa no BIOS, clonaram-na e construíram computadores similares ao da IBM.
Em novembro de 1982, a Compaq anuncia o Compaq Portable, primeiro PC que não
usa a BIOS da IBM e mantém 100% de compatibilidade com o IBM PC.
Esses computadores são conhecidos como "IBM PC compatíveis" e são os PCs que
são vendidos nas lojas até hoje, apenas bem mais evoluídos do que os primeiros
PCs. Isso levou a IBM a se tornar uma simples empresa que fabricava
computadores pessoais e concorria como qualquer outra nesse mercado. A IBM
praticamente abandonou o mercado de PCs e se dedicou ao mercado de servidores,
na qual é imbatível até hoje.

Gerações de computadores
A arquitetura de um computador depende do seu projeto lógico, enquanto que a
sua implementação depende da tecnologia disponível.
As três primeiras gerações de computadores refletiam a evolução dos componentes
básicos do computador (hardware) e um aprimoramento dos programas (software)
existentes.
Os computadores de primeira geração (1945–1959) usavam válvulas eletrônicas,
quilômetros de fios, eram lentos, enormes e esquentavam muito.

Informática – Arquitetura de Computadores I 14


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

A segunda geração (1959–1964) substituiu as válvulas eletrônicas por transístores


e os fios de ligação por circuitos impressos, o que tornou os computadores mais
rápidos, menores e de custo mais baixo.
A terceira geração de computadores (1964–1970) foi construída com circuitos
integrados, proporcionando maior compactação, redução dos custos e velocidade de
processamento da ordem de microssegundos. Tem início a utilização de avançados
sistemas operacionais.
A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da
tecnologia já existente, proporcionando uma otimização da máquina para os
problemas do usuário, maior grau de miniaturização, confiabilidade e maior
velocidade, já da ordem de nanossegundos (bilionésima parte do segundo).
O termo quinta geração foi criado pelos japoneses para descrever os potentes
computadores "inteligentes" que queriam construir em meados da década de 1990.
Posteriormente, o termo passou a envolver elementos de diversas áreas de
pesquisa relacionadas à inteligência computadorizada: inteligência artificial,
sistemas especialistas e linguagem natural. Mas o verdadeiro foco dessa
ininterrupta quinta geração é a conectividade, o maciço esforço da indústria para
permitir aos usuários conectarem seus computadores a outros computadores. O
conceito de supervia da informação capturou a imaginação tanto de profissionais da
computação como de usuários comuns.

Realizações para a sociedade


Apesar de sua pequena história enquanto uma disciplina acadêmica, a ciência da
computação deu origem a diversas contribuições fundamentais para a ciência e
para a sociedade. Esta ciência foi responsável pela definição formal de computação
e computabilidade, e pela prova da existência de problemas insolúveis ou
intratáveis computacionalmente. Também foi possível a construção e formalização
do conceito de linguagem de computador, sobretudo linguagem de programação,
uma ferramenta para a expressão precisa de informação metodológica flexível o
suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a ciência da
computação forneceu suporte para a Revolução Digital, dando origem a Era da
Informação. A computação científica é uma área da computação que permite o
avanço de estudos como o mapeamento do genoma humano.

2. Unidade lógica e aritmética

A Unidade lógica e aritmética (ULA) ou em inglês Arithmetic Logic Unit (ALU) é a


unidade do processador (Central Processing Unit, ou simplesmente CPU), que
realmente executa as operações aritméticas e lógicas referenciadas pelos opcodes.
É na verdade, uma "grande calculadora eletrônica" do tipo desenvolvido durante a
II Guerra Mundial, e sua tecnologia já estava disponível quando os primeiros
computadores modernos foram construídos.
Um símbolo
Informática – Arquitetura de Computadores I 15
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

esquemático típico
para uma ULA, onde
"A" e "B" são
operandos, "R" é a
saída, "F" é a
entrada da unidade
de controle e "D" é a
saída de status

O matemático John von Neumann propôs o conceito de ULA em 1945, quando


escreveu um relatório sobre os fundamentos para um novo computador chamado
EDVAC.
A tecnologia utilizada foi inicialmente relés, herança da telefonia, e posteriormente
válvulas, herança da radiofonia. Com o aparecimento dos transistores, e depois dos
circuitos integrados, os circuitos da unidade aritmética e lógica passaram a ser
implementados com a tecnologia de semi-condutores.
A ULA executa as principais operações lógicas e aritméticas do computador. Ela
soma, subtrai, divide, determina se um número é positivo ou negativo ou se é zero.
Além de executar funções aritméticas, uma ULA deve ser capaz de determinar se
uma quantidade é menor ou maior que outra e quando quantidades são iguais. A
ULA pode executar funções lógicas com letras e com números.
Resumindo

-A ULA executa operações aritméticas comuns.


-Também toma decisões lógicas, resolvendo sintaxes lógicas em uma programação.

Primeiro desenvolvimento
Em 1946, von Neumann trabalhou com seus colegas no projeto de um computador
para o Instituto de Estudos Avançados de Princeton (Princeton Institute of
Advanced Studies -IAS). O computador IAS se tornara o protótipo de muitos
computadores. Na proposta, von Neumann descreveu o que ele acreditava que
seria preciso na sua máquina, incluindo uma ULA. Von Neumann disse que a ULA
era uma necessidade para o computador porque ela garantiria que o computador
calcularia operações matemáticas básicas, incluindo adição, subtração,
multiplicação, e divisão..[1] Ele então achava razoável que um computador
contivesse um órgão especializado para essas operações.[1]

Sistemas numéricos
Uma ULA deve processar números usando o mesmo formato que o resto do circuito
digital. Nos modernos processadores, que quase sempre é o número binário em
representação de complemento para dois. Os primeiros computadores usavam uma
grande variedade de sistemas numéricos, incluindo os formatos complemento para
um, sinal-magnitude e mesmo o sistema decimal. ULAs para cada um desses

Informática – Arquitetura de Computadores I 16


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

sistemas numéricos tinham diferentes projetos, e influenciou a atual preferência


pelo complemento para dois, e essa é a representação que é a mais fácil para a ULA
calcular adições e subtrações.[carece de fontes?]

Visão geral prática

Uma simples ULA de 2-bit que faz AND, OR,


XOR, e adição (clique na imagem para
explicação)
Muitas das ações dos computadores são
executadas pela ULA. Esta recebe dados
dos registradores, que são processados e os
resultados da operação são armazenados
nos registradores de saída. Outros
mecanismos movem os dados entre esses
registradores e a memória.[2] Uma unidade
de controle controla a ULA, através de
circuitos que dizem que operações a ULA
deve realizar.

Operações simples
Muitas ULA podem realizar as seguintes
operações:
 Operações aritméticas com inteiros
 Operações lógicas bit a bit And, Not, Or, XOR
 Operações de deslocamento de bits (deslocamento, rotação por um
número específico de bits para esquerda ou direita, com ou sem sinal).
Deslocamentos podem ser interpretados como multiplicações ou divisões por 2.

Operações complexas
Um engenheiro pode projetar uma ULA para calcular qualquer operação, no entanto
isso gera complexidade; o problema é que quanto mais complexa a operação, mais
cara é a ULA, mais espaço utiliza do processador e mais dissipa energia. Então,
engenheiros sempre calculam um compromisso entre o poder de processamento e a
sua complexidade, satisfazendo aos requisitos do processador ou de outro circuito.
Imagine um cenário, onde é preciso calcular a raiz quadrada. O engenheiro teria as
seguintes opções:
1. Projetar uma ULA extremamente complexa que calcula a raiz quadrada
de qualquer número num único passo. Isso é chamado cálculo em passo-único de
clock.
2. Projetar uma ULA bastante complexa que calcula a raiz quadrada de
qualquer número em vários passos. Mas, existe um truque, os resultados
intermediários vão através de uma série de circuitos arranjados em linha, como
numa linha de produção. Que faz com que a ULA seja capaz de aceitar novos
números para cálculo antes mesmo de terminar o cálculo dos anteriores. Isso faz
com que a ULA seja capaz de produzir números tão rápido como cálculos em passo-
único de relógio, com um atraso inicial até os números começarem a sair. Isso é

Informática – Arquitetura de Computadores I 17


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

chamado cálculo em pipeline.


3. Projetar uma ULA complexa que calcula a raiz quadrada através de
vários passos. Isso é chamado de cálculo iterativo, e usualmente confia no controle
de uma complexa unidade de controle com microcódigo.
4. Projetar uma ULA simples no processador e vender separadamente um
processador especializado e caro que o consumidor possa instalá-lo ao lado desse,
realizando uma das opções acima. Isso é chamado de co-processador.
5. Dizer aos programadores que não há nenhum co-processador e que não
há nenhuma emulação, assim eles tem que escrever seus próprios algoritmos para
calcular a raiz quadrada por software. Isso é chamado de bibliotecas de software.
6. Emular a existência de um co-processador, ou seja, sempre que um
programa tenta realizar o cálculo da raiz quadrada, faz o processador verificar se há
co-processador presente e o utiliza se está ali; se não há, interrompe o programa e
invoca o sistema operacional para realiza o cálculo da raiz através de algum
algoritmo de software. Isso é chamado de emulação de software.
As opções acima vão desde a mais rápida e cara até a mais lenta e mais complicada.
Então, enquanto o mais simples computador pode calcular a mais complexa fórmula,
os computadores mais simples vão usualmente levar mais tempo fazendo isso
porque levam vários passos para calcular a fórmula. Processadores poderosos como
Intel Core e AMD64 utilizam a opção #1 para as operações mais simples, #2 para
as operações complexas mais comuns e #3 para as operações extremamente
complexas. Isso é possível através da construção de ULAs muito complexas nesses
processadores.

Entradas e Saídas
As entradas para a ULA são os dados a serem operados (chamados operandos) e o
código da unidade de controle indicando as operações para executar. As saídas são
os resultados da computação.
Em muitos projetos a ULA também leva ou gera as entradas ou saídas um conjunto
de códigos de condições de ou para um registro de status. Esses códigos são
usados para indicar casos como vai-um (empresta-um), (em inglês)overflow,
divisão-por-zero.

ULA vs. UPF


Uma Unidade de ponto flutuante também realiza operações aritméticas entre dois
valores, mas eles realizam isso com número em representação de ponto flutuante,
que é muito mais complexa que a complemento para dois. Para fazer esses cálculos,
uma UPF tem vários circuitos complexos, incluindo algumas ULAs internas.
Usualmente engenheiros chamam uma ULA o circuito que realiza operações
aritméticas com números inteiros em complemento para dois ou BCD, enquanto
circuitos que calculam em formatos como ponto flutuante usualmente recebem esse
ilustre n.

Informática – Arquitetura de Computadores I 18


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

3. Registradores

Em um sistema de computação, a destinação final do conteúdo de qualquer tipo de


memória é o processador (a CPU). Isto é, o objetivo final de cada uma das
memórias (ou do subsistema de memória) é armazenar informações destinadas a
serem, em algum momento, utilizadas pelo processador. Ele é o responsável pela
execução das instruções, pela manipulação dos dados e pela produção dos
resultados das operações.
As ações operativas do processador são realizadas nas suas unidades funcionais: na
unidade aritmética e lógica - ULA (Aritmetic and Logic Unit), na unidade de ponto
flutuante - UFP (Float Point Unit - FPU) ou talvez em uma unidade de
processamento vetorial. No entanto, antes que a instrução seja interpretada e as
unidades da CPU sejam acionadas, o processador necessita buscar a instrução de
onde ela estiver armazenada (memória cache ou principal) e armazená-la em seu
próprio interior, em um dispositivo de memória denominado registrador de
instrução.
Em seguida a este armazenamento da instrução, o processador deverá, na maioria
das vezes, buscar dados da memória (cache, principal ou mesmo de unidades de
disco em fita) para serem manipulados na ULA. Esses dados também precisam ser
armazenados em algum local da CPU até serem efetivamente utilizados. Os
resultados de um processamento (de uma soma, subtração, operação lógica, etc.)
também precisam, às vezes, ser guardados temporariamente na CPU, ou para
serem novamente manipulados na ULA por uma outra instrução, ou para serem
transferidos para uma memória externa à CPU. Esses dados são armazenados na
CPU em pequenas unidades de memória, denominadas registradores.
Um registrador é, portanto, o elemento superior da pirâmide de memória (ver
figura 1), por possuir a maior velocidade de transferência dentro do sistema (menor
tempo de acesso), menor capacidade de armazenamento e maior custo.
Analisando os diversos parâmetros que caracterizam as memórias, descritos no
item anterior, temos:
Tempo de acesso/ciclo de memória - por serem construídos com a mesma
tecnologia da CPU, estes dispositivos possuem o menor tempo de acesso/ciclo de
memória do sistema (neste caso, não é aplicável distinguir-se tempo de acesso e
ciclo de memória, por serem sempre iguais), algo em torno de l0 a 20
nanossegundos, dependendo de tratar-se de CPU de um supercomputador ou de
um microprocessador mais lento.
Capacidade - os registradores são fabricados com capacidade de armazenar um
único dado, uma única instrução ou até mesmo um único endereço. Desta forma, a
quantidade de bits de cada um é de uns poucos bits (de 8 a 64), dependendo do
tipo de processador e, dentro deste, da aplicação dada ao registrador em si.
Registradores de dados têm, em geral, o tamanho definido pelo fabricante para a
palavra do processador, tamanho diferente dos registradores usados
exclusivamente para armazenar endereços (quando há registradores com esta
função específica no processador). Por exemplo, o processador Intel 80486, cuja
palavra é de 32 bits, tem registradores também de 32 bits, inclusive registradores
de endereços (os números que indicam os endereços de célula de memória principal
Informática – Arquitetura de Computadores I 19
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

do processador têm 32 bits); o processador Motorola 68000 tem registradores de


dados de 32 bits (palavra de 32 bits) e registrador de endereços de 24 bits,
enquanto os processadores da família IBM 43xx possuem registradores de dados de
32 bits e endereços de 24 bits.

Volatilidade - registradores são memórias de semicondutores e, portanto,


necessitam de energia elétrica para funcionarem. Assim, registradores são
memórias voláteis. Para a CPU funcionar sem interrupção, mesmo quando
eventualmente a energia elétrica para o computador é interrompida, é necessário
que o sistema de computação seja ligado a um dispositivo de alimentação elétrica
denominado "no-break", o qual é constituído de bateria ou gerador de corrente,
conversor AC/DC.
Tecnologia - conforme mencionado no tópico anterior, os registradores são
memórias de semicondutores, sendo fabricados com tecnologia igual à dos demais
circuitos da CPU, visto que eles se encontram inseridos em seu interior. No entanto,
há diversos modelos de tecnologia de fabricação de semicondutores, uns com
tempo de acesso maior que outros, custos e capacidade de armazenamento, no
mesmo espaço físico, diferentes. Tecnologias bipolar e MOS ("metal oxide
semicondutor") são comuns na fabricação de registradores, sendo descritas na
disciplina "Circuitos Lógicos".
Temporariedade - os registradores são memórias auxiliares internas à CPU e,
portanto, tendem a guardar informação (dados ou instruções) o mais
temporariamente possível. Acumuladores ou registradores de dados armazenam os
dados apenas o tempo necessário para sua utilização na ULA.
Custo - devido à tecnologia mais avançada de sua fabricação, os registradores
encontram-se no topo da pirâmide em termos de custos, sendo os dispositivos de
maior custo entre os diversos tipos de memória.

Informática – Arquitetura de Computadores I 20


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

4. Processadores RISC x CISC

Sempre houve uma grande polêmica em torno de qual dessas plataformas é melhor.
Na verdade, você já deve ter ouvido muito boatos como "Os Macs são mais rápidos
por que tem chips RISC" ou algo do gênero. O objetivo deste artigo é falar um
pouco sobre as duas plataformas e como elas coexistem atualmente.

Um processador CISC (Complex Instruction Set Computer, ou "computador com um


conjunto complexo de instruções"), é capaz de executar várias centenas de
instruções complexas diferentes, sendo extremamente versátil. Exemplos de
processadores CISC são o 386 e o 486.

No começo da década de 80, a tendência era construir chips com conjuntos de


instruções cada vez mais complexos. Alguns fabricantes resolveram seguir o
caminho oposto, criando o padrão RISC (Reduced Instruction Set Computer, ou
"computador com um conjunto reduzido de instruções"). Ao contrário dos
complexos CISC, os processadores RISC são capazes de executar apenas algumas
poucas instruções simples. Justamente por isso, os chips baseados nesta
arquitetura são mais simples e muito mais baratos. Outra vantagem dos
processadores RISC, é que, por terem um menor número de circuitos internos,
podem trabalhar a freqüências mais altas. Um exemplo são os processadores Alpha,
que em 97 já operavam a 600 MHz.

Pode parecer estranho que um chip que é capaz de executar algumas poucas
instruções, possa ser considerado por muitos, mais rápido do que outro que
executa centenas delas, seria como comparar um professor de matemática com
alguém que sabe apenas as quatro operações. Mas o que acontece, é que um
processador RISC é capaz de executar tais instruções muito mais rapidamente. A
idéia principal, é que apesar de um processador CISC ser capaz de executar
centenas de instruções diferentes, apenas algumas são usadas freqüentemente.
Poderíamos então criar um processador otimizado para executar apenas estas
instruções simples que são usadas mais freqüentemente. Em conjunto com um
software adequado, este processador seria capaz de desempenhar quase todas as
funções de um processador CISC, acabando por compensar suas limitações com
uma maior velocidade de processamento.

é indiscutível, porém, que em instruções complexas os processadores CISC saem-


se melhor. Por isso, ao invés da vitória de uma das duas tecnologias, atualmente
vemos processadores híbridos, que são essencialmente processadores CISC, mas
incorporam muitos recursos encontrados nos processadores RISC (ou vice-versa).

Apesar de por questões de Marketing, muitos fabricantes ainda venderem seus


chips, como sendo "Processadores RISC", não existe praticamente nenhum
processador atualmente que siga estritamente uma das duas filosofias. Tanto
processadores da família x86, como o Pentium II, Pentium III e AMD Athlon, quanto
processadores supostamente RISC, como o MIPS R10000 e o HP PA-8000, ou
mesmo o G4, utilizado nos Macintoshs misturam características das duas
arquiteturas, por simples questão de performance. Por que ficar de um lado ou de
outro, se é possível juntar o melhor dos dois mundos? A última coisa que os
Informática – Arquitetura de Computadores I 21
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

fabricantes de processadores são é teimosos, sempre que aparece uma solução


melhor, a antiga e abandonada.

Examinando de um ponto de vista um pouco mais prático, a vantagem de uma


arquitetura CISC é que já temos muitas das instruções guardadas no próprio
processador, o que facilita o trabalho dos programadores, que já dispõe de
praticamente todas as instruções que serão usadas em seus programas. No caso de
um chip estritamente RISC, o programador já teria um pouco mais de trabalho, pois
como disporia apenas de instruções simples, teria sempre que combinar várias
instruções sempre que precisasse executar alguma tarefa mais complexa. Seria
mais ou menos como se você tivesse duas pessoas, uma utilizando uma calculadora
comum, e outra utilizando uma calculadora cientifica. Enquanto estivessem sendo
resolvidos apenas cálculos simples, de soma, subtração, etc. quem estivesse com a
calculadora simples poderia até se sair melhor, mas ao executar cálculos mais
complicados, a pessoa com a calculadora científica disporia de mais recursos.

Nos chips atuais juntamos as duas coisas. Internamente, o processador processa


apenas instruções simples. Estas instruções internas variam de processador para
processador, são como uma luva, que se adapta ao projeto do chip. As instruções
internas de um K6 são diferentes das de um Pentium, por exemplo. Sobre estas
instruções internas, temos um circuito decodificador, que converte as instruções
complexas utilizadas pelos programas em várias instruções simples que podem ser
entendidas pelo processador. Estas instruções complexas são iguais em todos os
processadores usados em micros PC. É isso que permite que um Athlon e um
Pentium III sejam compatíveis entre si.

O conjunto básico de instruções usadas em micros PC é chamado de conjunto x86.


Este conjunto é composto por um total de 187 instruções, que são as utilizadas por
todos os programas. Além deste conjunto principal, alguns processadores trazem
também instruções alternativas, que permitem aos programas executar algumas
tarefas mais rapidamente do que seria possível usando as instruções x86 padrão.
Alguns exemplos de conjuntos alternativos de instruções são o MMX (usado a partir
do Pentium MMX), o 3D-NOW! (usado pelos processadores da AMD, a partir do K6-
2), e o SSE (suportado pelo Pentium III).

Informática – Arquitetura de Computadores I 22


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

5. Modelos Recentes de Processadores

Abaixo são citadas as características de referência dos principais e mais


recentes modelos de processadores.

Core I3

Clock Cache Temp. Máxima Alimentação


sSpec Modelo Núcleos HT Vídeo Tecn. TDP (W) o
Interno L3 ( C) (V)

SLBMQ i3-540 3,06 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,64 - 1,4


SLBLR i3-530 2,93 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4

Core I5

Clock Turbo TDP Temp. Alimentação


sSpec Modelo Núcleos HT Vídeo Cache L3 Tecn. o
Interno Boost (W) Máxima ( C) (V)

SLBLH i5-750S 2,40 GHz 3,2 GHz 4 Não Não 8 MB 45 nm 82 76,7 0,65 - 1,4
SLBLC i5-750 2,66 GHz 3,2 GHz 4 Não Não 8 MB 45 nm 95 72,7 0,65 - 1,4
SLBTM i5-680 3,6 GHz 4,86 GHz 2 Sim Sim 4 MB 32 nm 73 0,65 - 1,4
SLBLT i5-670 3,56 GHz 3,73 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4
SLBNE i5-661 3,33 GHz 3,6 GHz 2 Sim Sim 4 MB 32 nm 87 69,8 0,65 - 1,4
SLBLV i5-660 3,33 GHz 3,6 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4
SLBLK i5-650 3,20 GHz 3,46 GHz 2 Sim Sim 4 MB 32 nm 73 72,6 0,65 - 1,4

Core I7
Temp. Máxima
sSpec Modelo Clock Interno Turbo Boost TDP (W) o Alimentação (V) Soquete
( C)
SLBEU 960 3,2 GHz 3,46 GHz 130 67,9 0,8 - 1,375 1366
SLBEN 950 3,06 GHz 3,32 GHz 130 67,9 0,8 - 1,375 1366
940
SLBCK 2,93 GHz 3,2 GHz 130 67,9 0,8 - 1,375 1366

SLBEJ 920 2,66 GHz 2,93 GHz 130 67,9 0,8 - 1,375 1366
SLBCH 920 2,66 GHz 2,93 GHz 130 67,9 0,8 - 1,375 1366
SLBJG 870 2,93 GHz 3,6 GHz 95 72,7 0,64 - 1,4 1156
SLBLG 860s 2,53 GHz 3,46 GHz 82 76,7 0,65 - 1,4 1156
SLBJJ 860 2,8 GHz 3,46 GHz 95 72,7 0,65 - 1,4 1156

Na tabela abaixo há uma lista dos modelos do processador Core i7 Extreme para
desktops lançados até o momento. Esses modelos têm um barramento QPI
funcionando a uma velocidade maior (3,2 GHz, 6,4 GB/s) e têm seu multiplicador
de clock destravado, dando mais essa possibilidade de overclock.

Temp. Máxima
sSpec Modelo Clock Interno Turbo Boost TDP (W) o Alimentação (V) Soquete
( C)
SLBEQ 975 3,33 GHz 3,6 GHz 130 67,9 0,8 - 1,375 1366
SLBCJ 965 3,2 GHz 3,46 GHz 130 67,9 0,8 - 1,375 1366

Informática – Arquitetura de Computadores I 23


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Phenon X3
Contr. Temp.
Modelo OPN (Box) OPN (Tray) Clock HT TDP
Rev. Mem. Máx. (º C) Alim.

8850 HD8850WCGHBOX HD8850WCJ3BGH 2,5 GHz B3 1,8 GHz 7,2 GB/s 95 W 71 1,05 V - 1,25 V
8750 HD875ZWCGHBOX HD875ZWCJ3BGH 2,4 GHz B3 1,8 GHz 7,2 GB/s 95 W 71 1,05 V - 1,25 V
8750 HD8750WCGHBOX HD8750WCJ3BGH 2,4 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8650 HD8450WCGHBOX HD8650WCJ3BGH 2,3 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8600 - HD8600WCJ3BGD 2,3 GHz B2 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8450e HD8450ODGHBOX HD8450ODJ4BGH 2,1 GHz B3 1,8 GHz 7,2 GB/s 65 W 71 1,05 V - 1,25 V
8450 HD8450WCGHBOX HD8450WCJ3BGH 2,1 GHz B3 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8400 - HD8400WCJ3BGD 2,1 GHz B2 1,8 GHz 7,2 GB/s 95 W 70 1,05 V - 1,25 V
8250e HD8250ODGHBOX HD8250ODJ4BGH 1,9 GHz B3 1,8 GHz 7,2 GB/s 65 W 71 1,05 V - 1,25 V

Turion 64
Modelo Clock Interno TDP Cache L2 Soquete
MK-38 2,2 GHz 31 W 512 KB S1
MK-36 2,0 GHz 31 W 512 KB S1
ML-44 2,4 GHz 35 W 1 MB 754
ML-42 2,4 GHz 35 W 512 KB 754
ML-40 2,2 GHz 35 W 1 MB 754
ML-37 2,0 GHz 35 W 1 MB 754
ML-34 1,8 GHz 35 W 1 MB 754
ML-32 1,8 GHz 35 W 512 KB 754
ML-30 1,6 GHz 35 W 1 MB 754
ML-28 1,6 GHz 35 W 512 KB 754
MT-40 2,2 GHz 25 W 1 MB 754
MT-37 2,0 GHz 25 W 1 MB 754
MT-34 1,8 GHz 25 W 1 MB 754
MT-32 1,8 GHz 25 W 512 KB 754
MT-30 1,6 GHz 25 W 1 MB 754
MT-28 1,6 GHz 25 W 512 KB 754

Fonte:http://www.clubedohardware.com.br/pagina/processadores

6. Conversão de Bases Numéricas

Principais Conversões

A transformação de uma determinada quantidade num


sistema de numeração para sua representação equivalente
num outro sistema recebe o nome de conversão.

 A partir dos sistemas vistos na nota de aula sobre sistemas de


numeração (decimal, binário, octal e hexadecimal), veremos a
seguir as seguintes conversões entre estes sistemas:
1. Decimal -> Outro sistema

Informática – Arquitetura de Computadores I 24


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

2. Outro sistema -> Decimal


3. Hexadecimal -> Binário
4. Octal -> Binário
5. Binário -> Hexadecimal
6. Binário -> Octal
7. Hexadecimal -> Octal
8. Octal -> Hexadecimal

1. Decimal -> Outro sistema

 Para se obter a representação de uma quantidade no sistema


decimal em qualquer outro sistema, basta utilizarmos o TFN na sua
forma inversa, ou seja, através de divisões sucessivas do
número decimal pela base do sistema desejado.
 O resultado será os restos das divisões dispostos na ordem
inversa.
 Um método simples para converter uma fração decimal para
qualquer outro sistema consiste em multiplicações sucessivas da
parte fracionária pela base do sistema desejado, obtendo como
resultado as partes inteiras das multiplicações. O processo termina
quando a parte fracionária é zero ou menor do que o erro indicado.

Exemplos:

a) Decimal -> Binário

(10)10 = (1010)2

Exemplo (fração): (0,828125)10 = ( ? )2

0,828125 x 2 = 1,65625

0,65625 x 2 = 1,3125

0,3125 x 2 = 0,625

0,625 x 2 = 1,25

Informática – Arquitetura de Computadores I 25


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

0,25 x 2 = 0,5

0,5 x 2 = 1

Assim temos, de cima para baixo, as partes


inteiras dos resultados sendo: 110101, portanto:
(0,828125)10 = ( 0,110101)2

b) Decimal -> Octal

(500)10 = (764)8

Exemplo (fração): (0,140625)10 = ( ? )8

0,140625 x 8 = 1,125

0,125 x 8 = 1

Assim temos, de cima para baixo, as partes


inteiras dos resultados sendo: 11, portanto:

(0,140625)10 = (0,11)8

c) Decimal -> Hexadecimal

(1000)10 = (3E8)16, pois o valor absoluto de E é 14.

Exemplo (fração): (0,06640625)10 = ( ? )16

0,06640625 x 16 = 1,0625

Informática – Arquitetura de Computadores I 26


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

0,0625 x 16 = 1

Assim temos, de cima para baixo, as partes


inteiras dos resultados sendo: 11, portanto:

(0,06640625)10 = (0,11)16

2. Outro sistema -> Decimal

 Esta conversão consiste da aplicação direta do TFN (Teorema


Fundamental de Numeração), ou seja,

...+ X3 x B3 + X2 x B2 + X1 x B1 + X0 x B0 + X-1 x B-1 + X-2 x B-2 +


X-3 x B-3 + ...

Exemplos:

a) Binário -> Decimal

101011 = 1 x 25 + 0 x 24 + 1 x 23 + 0 x 22 + 1 x 21 + 1 x 20
= 32 + 0 + 8 + 0 + 2 + 1 = 43, logo: (101011)2 = (43)10

b) Octal -> Decimal

764 = 7 x 82 + 6 x 81 + 4 x 80 = 448 + 48 + 4 = 500, logo:


(764)8 = (500)10

c) Hexadecimal -> Decimal

3E8 = 3 x 162 + 14 x 161 + 8 x 160 = 768 + 224 + 8 = 1000,


logo: (3E8)16 = (1000)10

3. Hexadecimal -> Binário

 Para converter um número hexadecimal em binário, substitui-se


cada dígito hexadecimal por sua representação binária com
quatro dígitos (tabela 1).

 A tabela a seguir mostra a equivalência entre os sistemas de


numeração decimal, binário, octal e hexadecimal.

Decimal Binário Octal Hexadecimal


0 0000 0 0
1 0001 1 1
2 0010 2 2
3 0011 3 3

Informática – Arquitetura de Computadores I 27


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

4 0100 4 4
5 0101 5 5
6 0110 6 6
7 0111 7 7
8 1000 10 8
9 1001 11 9
10 1010 12 A
11 1011 13 B
12 1100 14 C
13 1101 15 D
14 1110 16 E
15 1111 17 F
Tabela 1. Equivalência entre os sistemas de numeração.

Exemplo:

(2BC)16 = (?)2

2 = 0010, B = 1011, C = 1100 (pela tabela 1), logo: (2BC)16 =


(001010111100)2 = (1010111100)2

4. Octal -> Binário

 De modo muito semelhante a conversão hexadecimal -> binário,


esta conversão substitui cada dígito octal por sua
representação binária com três dígitos (tabela 1).

Exemplo:

(1274)8 = (?)2

1 = 001, 2 = 010, 7 = 111, 4 = 100 (pela tabela 1), logo: (1274)8 =


(001010111100)2 = (1010111100)2

5. Binário -> Hexadecimal

 Para se converter de binário para hexadecimal, utiliza-se um


procedimento inverso a conversão hexadecimal -> binário, ou seja,
agrupa-se o número binário de 4 em 4 dígitos, da direita para
a esquerda na parte inteira e da esquerda para a direita na
parte fracionária, e o substitui por seu equivalente
hexadecimal (tabela 1).

Exemplo:

* (100101100)2 = (?)16

Informática – Arquitetura de Computadores I 28


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Da direita para a esquerda: 1100 = C, 0010 = 2, 0001 = 1 (pela tabela 1),


logo: (100101100)2 = (12C)16

* (100101001000,1011011)2 = (?)16

1001 = 9, 0100 = 4, 1000 = 8, 1011 = B, 0110 = 6 (pela tabela 1), logo:


(100101001000,1011011)2 = (948,B6)16

6. Binário -> Octal

 Muito semelhante ao método binário -> hexadecimal, contudo,


neste caso, agrupa-se o número binário de 3 em 3 dígitos, da
direita para a esquerda na parte inteira e da esquerda para a
direita na parte fracionária, e o substitui por seu equivalente
octal (tabela 1).

Exemplo:

* (1010111100)2 = (?)8

Da direita para a esquerda: 100 = 4, 111 = 7, 010 = 2, 001 = 1 (pela


tabela 1), logo: (100101100)2 = (1274)8

* (1100101000,1011)2 = (?)8

001 = 1, 100 = 4, 101 = 5, 000 = 0, 101 = 5, 100 = 4 (pela tabela 1),


logo: (1100101000,1011)2 = (1450,54)8

7. Hexadecimal -> Octal

 Neste caso é necessário um passo intermediário: primeiro


transforma-se o número hexadecimal em binário e então este é
convertido em octal. Obtemos assim a seguinte equivalência para
esta conversão:

Hexadecimal -> Binário -> Octal


Exemplo:

(1F4)16 = (?)8
1 = 0001, F = 1111, 4 = 0100 (pela tabela 1), logo: (1F4)16 =
(111110100)2
Da direita para a esquerda: 100 = 4, 110 = 6, 111 = 7 (pela tabela 1),
logo: (111110100)2 = (764)8
Assim: (1F4)16 = (764)8
8. Octal -> Hexadecimal

Informática – Arquitetura de Computadores I 29


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

 O mesmo acontece neste caso. Assim temos:

Octal -> Binário -> Hexadecimal


Exemplo:

(144)8 = (?)16

1 = 001, 4 = 100, 4 = 100 (pela tabela 1), logo: (144)8 = (1100100)2

Da direita para a esquerda: 0100 = 4, 0110 = 6 (pela tabela 1), logo:


(1100100)2 = (64)16

Assim: (144)8 = (64)16

Informática – Arquitetura de Computadores I 30


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

7. Álgebra Booleana

Variável Lógica (Booleana)


Considere a proposição citada no tópico Introdução à Lógica,
A = "Maria tem 23 anos"
A proposição "Maria tem 23 anos" é representada pelo símbolo A, que é uma
variável booleana, pois pode assumir um dos dois valores lógicos: F ou V. Além de
variável booleana, A é também chamada variável lógica.
Função de Variáveis Lógicas (Booleanas)
Dada uma variável lógica, é possível construir uma função desta variável, f(A),
Exemplo
 f(A) = A'
isto é, função da variável lógica A representa simplesmente a sua negação. Como
visto no tópico Introdução à Lógica, sua tabela-verdade é dada por (usando-se
números binários 1 e 0, ao invés de V e F).

A f(A) =A'
0 1
1 0

Quando se tem apenas 1 variável, como acima, é possível construir apenas 4


funções, abaixo, onde a primeira é a própria negação já vista neste tópico; a
segunda é a função identidade; a duas últimas não possuem denominação especial.

A F1(A) f2(A) f3(A) f4(A)


0 1 0 0 1
1 0 1 0 1

Veja que, para duas ou mais variáveis, o número possível de funções que podem
ser construidas é de 22n, onde n é o número de variáveis. Para duas variáveis, 22.2
= 16 (apenas 16 possibilidades de construção de funções lógicas de apenas 2
variáveis).

A B f1 f2 f3 f4 f5 f6 f7 f8 f9 f10 f11 f12 f13 f14 f15 f16

0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1

0 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1

1 0 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1

1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

Informática – Arquitetura de Computadores I 31


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Para 3 variáveis, 22.3 = 64 funções possíveis, e assim por diante.Na tabela cima, A
e B são as variáveis independentes e fi(A,B) são as variáveis dependentes,
conhecidas por funções de variáveis lógicas, funções combinatoriais ou, ainda,
funções combinacionais. A função lógica fi(A,B) pode ser representada por uma
caixa preta cujo conteúdo implementa um tipo de porta ou uma combinação das
mesmas. Por exemplo, para a tabela acima, algumas funções são

Função f1 f2 f4 f6 F7 f8 f9 f10 f11 f13 f15 f16

Porta 0 AND A B XOR OR NOR XNOR B' A' NAND 1

O que é aqui considerado como a porta 0 é um circuito lógico que, independente


das entradas, a saída é sempre zero. A "porta" 1 segue o mesmo esquema, isto é,
para quaisquer entradas, a saída é sempre 1. Os símbolos A' e B' caracterizam as
negações, ou inversões, das variáveis.

Qualquer circuito lógico pode ser considerado como uma caixa preta como descrita
acima. Para exemplificar, veja como "encapsular" um circuito lógico em uma "caixa
preta" (não se incomode se a o azul é usado no lugar do preto),

Observe que o modelo caixa preta é muito mais geral que o outro que já está
especificado. O que se sabe do modelo caixa preta é a quantidade de circuitos que
podem ser gerados a partir de 4 entradas e 1 saída. Quantos são mesmo?
Uma função combinacional é uma solução para um problema combinacional. Como
exemplo de um problema combinacional, considere um sistema de segurança de
uma loja em um shopping. Há um sensor de contato que, ligado, (on, V ou 1),
indica que a porta está fechada; e outro sensor infravermelho que, ligado, indica
que não há pessoas ou coisas se movendo no interior da loja. Há, também, um
alarme que é acionado quando um dos dois sensores é desligado. Isto é, basta um
único sensor ser desativado para soar o alarme. Denomine cada sensor pelos
simbolos A e B,

1. A = "sensor de contato"
2. B = "sensor infravermelho"
Informática – Arquitetura de Computadores I 32
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

A tabela-verdade para a função alarme, f(A,B), é dada por


A B f(A,B)
0 0 1
0 1 1
1 0 1
1 1 0

onde 0 e 1 significam desligado e ligado, respectivamente. Para maior realismo,


suponha que a fonte de energia do sistema seja independente da rede elétrica
(nobreak, por exemplo).
Como você pode notar, a tabela-verdade é um excelente instrumento para a
especificação da função alarme, em particular, e de funções lógicas, em geral. Mas
não é o único. Outras duas ferramentas importantes são:
1. Equações booleanas
2. Diagramas lógicos
Equações Booleanas
As equações booleanas fazem uso dos conectivos lógicos vistos em Introdução à
Lógica. A função alarme, acima, pode ser escrita de acordo com a seguinte equação
booleana,
f(A) = (A.B)'
onde o símbolo "'" significa a negação lógica, e o símbolo "." significa a conjunção
(AND) lógica. Sua tabela-verdade é construída da seguinte maneira,

A B A.B f(A,B) = (A.B)'


0 0 0 1
0 1 0 1
1 0 0 1
1 1 1 0

Diagramas Lógicos
Os diagramas lógicos serão estudados, com detalhes, no tópico Portas Lógicas. Mas
apenas para exemplificar, a função alarme aqui tratada poderia ser especificada
através do seguinte diagrama lógico,

isto é, através da porta lógica NAND.


Teoremas da Álgebra de Boole

Informática – Arquitetura de Computadores I 33


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Uma função combinacional pode ser escrita de várias maneiras, sem ser alterada,
fazendo-se uso dos Teoremas da Álgebra de Boole. Por exemplo,
(A . B)' = A' + B'
onde, como visto, os simbolos "'" e "+" representam a negação (NOT) e a
disjunção (OR), respectivamente. Aqui usou-se um dos teoremas conhecidos como
Leis de De Morgan. Os principais teoremas da Álgebra Booleana são,

Ordem Teoremas Ordem Teoremas


1 A +0=A 11 A . B + A. B' =A
2 A +1=1 12 (A + B) .(A + B') =A
3 A +A=A 13 A + A' .B = A +B
4 A + A' = 1 14 A . (A' +B)= A .B
5 A . 1= A 15 A + B . C = (A+ B). (A+ C)
6 A . 0 =0 16 A . (B + C) = A. B + A. C
7 A .A=A 17 A . B +A' .C = (A +C) . (A' + B)
8 A . A' = 0 18 (A + B) .(A' +C) = A . C + A' .B
9 A +A.B=A 19 A. B +A' . C+ B . C= A. B + A'. C
(A + B) . (A' +C) . (B + C) = (A +B) . (A' +
10 A . ( A + B) = A 20
C)

Como qualquer prova de teorema, a cada passo em direção à prova, você tem que
dizer o porque do passo. Veja este exemplo (a prova do teorema 10),
A . (A + B)
= (pelo teorema 16)
A.A+A.B
= (teo. 7)
A+A.B
= (teo. 5)
A .1 + A . B
= (teo. 16)
A . (1 + B)
= (teo. 2)
A.1
= (teo. 5)
A

Informática – Arquitetura de Computadores I 34


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

8. Portas e Circuitos Lógicos

Portas Lógicas Padrão


As seguintes são as portas lógicas padrão:
NOT
É a porta inversora. Seu símbolo e tabela-verdade são:

A A'
0 1
1 0

Simule o funcionamento de uma porta NOT.


AND
A porta AND mais simples possui 2 entradas e 1 saída,

A B A.B
0 0 0
OR
0 1 0
A porta OR mais simples
1 0 0
possui, também, 2
1 1 1 entradas e 1 saída,

A B A+ B
0 0 0
0 1 1
1 0 1
1 1 1

Informática – Arquitetura de Computadores I 35


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

NAND
É equivalente à 1 (uma) porta AND seguida de 1 (uma) porta NOT,

A B (A. B)'
0 0 1
0 1 1
1 0 1
1 1 0

NOR
É equivalente à 1 (uma) porta OR seguida de 1 (uma) porta NOT,
A B (A+ B)'
0 0 1
XOR
0 1 0
Éo
1 0 0
OU
1 1 0 exclu
sivo,
A B XOR
A B XOR
0 0 0
0 1 1
1 0 1

XNOR
Equivalente à porta NOR seguida da porta NOT,
A B XNOR
0 0 1
0 1 0
1 0 0
1 1 1

AND-OR-INVERT (AOI)
Também disponível comercialmente. Sua estrutura contém portas AND, OR e NOT.
Veja sua importância no livro texto,

Informática – Arquitetura de Computadores I 36


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

A importância dessas portas lógicas está no fato de representarem os elementos


básicos de construção da maioria dos circuitos digitais práticos. Quando se deseja
construir um circuito lógico (ou digital) relativamente simples, usa-se uma placa de
circuito impresso com soquetes sobre os quais insere-se um circuito integrado (CI)
digital. A maioria dos CI's já são padronizados, e os mais comuns pertencem à série
denominada 7400. Os mais simples utilizam a tecnologia de Integração em Pequena
Escala (SSI - Small Scale Integration). Como um exemplo, veja o CI 7408, que
contém quatro portas AND, cuja relação de suas entradas e saídas com os pinos de
seu encapsulamento pode ser vista no diagrama,

Além de seu diagrama, são mostradas também as três formas de encapsulamento


desse chip, sendo que duas delas exibem tipos diferentes de material e a outra é
diferente na forma com a qual deve ser fixada na placa de circuito impresso. Como
indica seu diagrama, esse CI possui 14 pinos (olhando-o de cima, a numeração de
tais pinos é importante, pois o pino 1 sempre começa do mesmo lado; isso é
suficiente para você efetuar as ligações elétricas necessárias para a montagem de
seu circuito lógico), sendo que o pino 7 é o terra (Ground = 0 V; V indica volts) e o
pino 14 é a tensão da fonte de energia (Vcc = 14 V). A maioria dos CI's SSI, que
serão utilizados em nosso curso, possui 14 ou 16 pinos.
Como os CI's vem com número e tipo de portas determinadas, como seria possível
construir-se um porta arbitrária a partir das que o CI contém? Por exemplo,
suponha que você dispõe apenas do CI 7400, que é composto por quatro portas
NAND. Para construirmos um inversor, e lembrando sempre que isso é possível pela
aplicação das Leis de De Morgan, bastaríamos fazer

Informática – Arquitetura de Computadores I 37


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Inversor Porta AND

Porta OR
Lei de De Morgan

As leis de De Morgan também podem ser usadas para mostrar que uma porta NAND
com as entradas negadas é equivalente à uma porta AND e isso também é válido
para a porta NOR (dualidade), como também visto acima.
A variável ENABLE (HABILITA)
Um artifício muito utilizado em eletrônica digital é a variável ENABLE. Para saber o
que isso significa, pensemos no seguinte exemplo: suponha ter uma porta XOR
como a que foi mostrada acima; faça pequenas modificações em seu diagrama
lógico e em sua tabela-verdade,

Tanto o diagrama quanto a tabela-verdade são idênticos aos encontrados acima


nesta página. No entanto, com o artifício é possível visualizar-se outra aplicação até
agora não lembrada. Veja que, quando a variável, dita de controle, C é 0, a
variável lógica, agora chamada de entrada, A, é transferida para a saída sem
Informática – Arquitetura de Computadores I 38
Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

alteração. Mas quando a variável C é 1, a saída é a negação de A. Em outras


palavras, dizemos que a variável de controle, C, habilita a porta inversora. Legal,
não?
Só não se esqueça que o circuito acima continua tendo duas entradas e uma saída.
A única coisa que mudou foi a forma de você o encarar, isto é, a interpretação que
você faz de suas variáveis de entrada e saída. A figura abaixo mostra um diagrama
geral.

Informática – Arquitetura de Computadores I 39


Escola Estadual de Educação Profissional [EEEP] Ensino Médio Integrado à Educação Profissional

Referências Bibliográficas

 http://pt.wikipedia.org/wikipédia/wiki/história_da_computação
 http://www.guiadohardware.net/artigos/risc-cisc/
 http://www.di.ufpb.br/raimundo/Hierarquia/Registradores.html
 http://www.clubedohardware.com.br/pagina/processadores
 http://www.lia.ufc.br/~paty/icc/notas/4/index.html
 http://www.inf.ufsc.br/ine5365/algboole.html
 http://www.inf.ufsc.br/ine5365/portlog.html
 PAIXÂO, Renato Rodrigues. Configuração e Montagem de PCs com Inteligência,
6ª edição. Editora Érica.
 TANENBAUM, Andrew S. Organização Estruturada de Computadores, 5ª
EDIÇÃO. Editora Pearson.

Informática – Arquitetura de Computadores I 40


Hino Nacional Hino do Estado do Ceará

Ouviram do Ipiranga as margens plácidas Poesia de Thomaz Lopes


De um povo heróico o brado retumbante, Música de Alberto Nepomuceno
E o sol da liberdade, em raios fúlgidos, Terra do sol, do amor, terra da luz!
Brilhou no céu da pátria nesse instante. Soa o clarim que tua glória conta!
Terra, o teu nome a fama aos céus remonta
Se o penhor dessa igualdade Em clarão que seduz!
Conseguimos conquistar com braço forte, Nome que brilha esplêndido luzeiro
Em teu seio, ó liberdade, Nos fulvos braços de ouro do cruzeiro!
Desafia o nosso peito a própria morte!
Mudem-se em flor as pedras dos caminhos!
Ó Pátria amada, Chuvas de prata rolem das estrelas...
Idolatrada, E despertando, deslumbrada, ao vê-las
Salve! Salve! Ressoa a voz dos ninhos...
Há de florar nas rosas e nos cravos
Brasil, um sonho intenso, um raio vívido Rubros o sangue ardente dos escravos.
De amor e de esperança à terra desce, Seja teu verbo a voz do coração,
Se em teu formoso céu, risonho e límpido, Verbo de paz e amor do Sul ao Norte!
A imagem do Cruzeiro resplandece. Ruja teu peito em luta contra a morte,
Acordando a amplidão.
Gigante pela própria natureza, Peito que deu alívio a quem sofria
És belo, és forte, impávido colosso, E foi o sol iluminando o dia!
E o teu futuro espelha essa grandeza.
Tua jangada afoita enfune o pano!
Terra adorada, Vento feliz conduza a vela ousada!
Entre outras mil, Que importa que no seu barco seja um nada
És tu, Brasil, Na vastidão do oceano,
Ó Pátria amada! Se à proa vão heróis e marinheiros
Dos filhos deste solo és mãe gentil, E vão no peito corações guerreiros?
Pátria amada,Brasil!
Se, nós te amamos, em aventuras e mágoas!
Porque esse chão que embebe a água dos rios
Deitado eternamente em berço esplêndido, Há de florar em meses, nos estios
Ao som do mar e à luz do céu profundo, E bosques, pelas águas!
Fulguras, ó Brasil, florão da América, Selvas e rios, serras e florestas
Iluminado ao sol do Novo Mundo! Brotem no solo em rumorosas festas!
Abra-se ao vento o teu pendão natal
Do que a terra, mais garrida, Sobre as revoltas águas dos teus mares!
Teus risonhos, lindos campos têm mais flores; E desfraldado diga aos céus e aos mares
"Nossos bosques têm mais vida", A vitória imortal!
"Nossa vida" no teu seio "mais amores." Que foi de sangue, em guerras leais e francas,
E foi na paz da cor das hóstias brancas!
Ó Pátria amada,
Idolatrada,
Salve! Salve!

Brasil, de amor eterno seja símbolo


O lábaro que ostentas estrelado,
E diga o verde-louro dessa flâmula
- "Paz no futuro e glória no passado."

Mas, se ergues da justiça a clava forte,


Verás que um filho teu não foge à luta,
Nem teme, quem te adora, a própria morte.

Terra adorada,
Entre outras mil,
És tu, Brasil,
Ó Pátria amada!
Dos filhos deste solo és mãe gentil,
Pátria amada, Brasil!

S-ar putea să vă placă și