Documente Academic
Documente Profesional
Documente Cultură
Equao 1
Onde ni a quantidade de negcios realizados pelo papel, N a quantidade de negcios
realizados na Bolsa de Valores, vi o volume financeiro do papel, e V o volume financeiro
da Bolsa de Valores.
Esta equao mede a importncia do papel no mercado quanto ao volume financeiro e
o nmero de negcios. Portanto, quanto maior o resultado, maior liquidez tem esse papel.
Atravs desta equao so determinados os papis que iro fazer parte do ndice Ibovespa
(MARANGONI, 2010).
ROC (Rate of Change)
Este ndice composto pela Equao 2:
() =
[()()]
[()+()]
Equao 2
Onde p(t) o valor do fechamento da ao no dia, n o nmero de dias para indicar o
grau de mudana e BA a mdia mvel (tcnica para analisar dados em um intervalo de
tempo) das ultimas cinco cotaes.
Este indicador mostra a mdia das oscilaes dos preos em n dias anteriores, ou seja,
mostra que cotaes anteriores tem uma relevncia com os futuros resultados (MARANGONI,
2010).
RSI (Relative Strenght Index)
Este ndice composto pela Equao 3:
() = 100
100
1+()
Equao 3
Onde RS(t) a mdia dos valores que fecharam em alta ou baixa em um perodo t dias.
Quando o resultado deste indicador resulta em mais de 50, significa que a tendncia do
mercado alta, e ao contrrio, significa que baixa (RAO, 1995).
%R (Percentual R)
Este ndice composto pela Equao 4:
33
%() = 100 (
max()preo(n)
max()min()
) Equao 4
Onde max(t) o maior valor e min(t) o menor valor da ao em um determinado perodo
e preo(n) o valor do fechamento da ao no dia.
Quando o resultado deste indicador so valores baixos, significam que est prxima a
resistncia, e quando so valores altos, esto perto do suporte (RAO, 1995). A Figura 1 possui
um exemplo do funcionamento de resistncia e suporte:
Figura 1. Resistncia e Suporte no preo das aes.
Fonte: Iniciantenabolsa (2007).
Analisando a Figura 1, quando os valores das aes chegam a um suporte ou resistncia,
tendem a bater e voltar. Segundo o site Nelogica (2012), eles possuem as seguintes
caractersticas:
Quando o valor chega perto da regio de suporte, o interesse de compra grande e,
consequentemente, a tendncia de queda parar; e
Quando o valor chega perto da regio de resistncia, o interesse de venda grande
e, consequentemente, a tendncia de crescimento tende a parar.
34
2.2 Redes Neurais Artificiais
Segundo Haykin (2001, p. 28), Rede Neural pode ser definida como:
Uma mquina que projetada para modelar a maneira como o crebro realiza
uma tarefa particular ou funo de interesse. A rede normalmente
implementada utilizando-se componentes eletrnicos ou simulada por
programao digital. Para alcanarem bom desempenho, as redes neurais
empregam uma interligao macia de clulas computacionais simples
denominadas neurnios ou unidades de processamento.
Para o melhor entendimento do conceito de Redes Neurais Artificiais, primeiramente
necessrio entender o funcionamento dos neurnios no crebro humano, que formado por
aproximadamente de 10 bilhes de neurnios. So compostos por alguns elementos, segundo
(TECMUNDO, 2009):
Dendritos: responsveis pela captao de informaes do ambiente ou de outras
clulas;
Sinapses: so pontos de contatos entre neurnios onde h passagem de
neurotransmissores (so capazes de criar at dez mil sinapses com outros
neurnios);
Corpo celular (ou soma): processa as informaes; e
Axnios: distribuem as informaes processadas para outros neurnios ou clulas
do corpo.
Um neurnio envia sinais atravs de vrios dendritos, nos quais so enviados e
ponderados para o axnio, podendo ou no seguir a diante. Na passagem por um neurnio, o
sinal tem chance de ser amplificado ou atenuado, dependendo do dendrito de origem, pois cada
condutor est ligado a um peso pelo qual o sinal multiplicado. A memria so os pesos, que
so estabelecidos por meio de treinamento que recebido pelo crebro durante sua vida til,
processo denominado de memorizao (LUDWIG JR.; MONTGOMERY, 2007).
Segundo Haykin (2001), as redes neurais so semelhantes ao crebro humano em dois
aspectos:
O conhecimento adquirido pela RNA a partir do seu ambiente, por meio de um
processo de aprendizagem; e
O conhecimento adquirido armazenado nas sinapses.
35
A Figura 2 ilustra um neurnio biolgico apontando cada elemento descrito
anteriormente.
Figura 2. Neurnio Biolgico.
Fonte: Barreto (2002).
Nos neurnios artificiais (ou matemticos), a forma, comportamento e as funes so
similares a um neurnio biolgico. Os dendritos so substitudos pelas entradas, ligados a um
corpo celular artificial atravs de um elemento chamado de peso (similar sinapse). Os
estmulos captados so processados pela funo de soma (processa estmulos ponderados pelos
pesos recebidos) conduzindo at a sada de um neurnio, que obtida atravs da funo de
ativao (transferncia) (TAFNER, 1998). O funcionamento desta funo ser detalhado na
seo 2.2.1. A Figura 3 demonstra um desenho de um neurnio artificial.
Figura 3. Modelo de um Neurnio Artificial.
Fonte: Tafner (1998).
A Equao 5 demonstra a frmula de um neurnio artificial, segundo Haykin (2001):
36
Y
k=
( x
i
ki
=1
) Equao 5
Onde Y
k
seria a sada do neurnio, a funo de ativao, e dentro dos parnteses um
somatrio da multiplicao de x
i
com w
ki
. x
i
so sinais de entrada do neurnio e w
ki
seriam
os pesos sinpticos do neurnio em questo.
Combinando neurnios artificiais, formam-se as Redes Neurais Artificiais (RNA)
(TAFNER, 1998). A RNA tem como caracterstica pegar o comportamento do crebro humano
atravs de neurnios artificiais utilizando algoritmos de aprendizagem. Quando aplicado esses
algoritmos sobre os dados de entrada, necessita-se um processamento dos dados atravs de
funo de ativao e alvos pr-definidos. Aps isso, a rede retorna valores esperados e os
respectivos erros (MARANGONI, 2010).
2.2.1 Funo de Ativao (ou Transferncia)
A funo de ativao funciona da seguinte forma: restringir o valor recebido pela
Funo de Soma em um intervalo unitrio fechado de [0,1] ou [-1,1] (HAYKIN, 2001).
Portanto, elas possuem duas funes: manter a unidade de neurnio ativa, ou prxima
de um, quando as entradas fornecidas forem corretas e manter a unidade de neurnio inativa,
ou prxima de zero, quando as entradas fornecidas forem incorretas (RUSSEL; NORVIG,
1995).
Existem vrias funes de ativao, no qual Haykin (2001) cita os trs mais bsicos e
utilizados:
Funo de Limiar (threshold): a Equao 6 demonstra o funcionamento desta funo
de ativao:
(x) = {
1 se x > 0
0 se x 0
Equao 6
Esta funo se caracteriza como se fosse tudo ou nada. A sada do neurnio assume o
valor 1 se o campo local induzido x for positivo, e 0 se for menor ou igual zero. Este
neurnio conhecido como modelo de McCulloch-Pitts;
Funo Linear por Partes: a Equao 7 demonstra o funcionamento desta funo de
ativao:
37
(x) =
{
1 se x
1
2
x se
1
2
> >
1
2
0 se x
1
2
Equao 7
Esta funo se caracteriza por ser linear at atingir os valores mximos e mnimos da
sada.
Funo Sigmide: esta funo a mais utilizada para construo de RNAs.
definida como uma funo crescente que exibe um balanceamento adequado entre
funes de ativao lineares e no lineares. As duas funes sigmides mais comuns
so as de logstica e tangente hiperblica. A Equao 8 demonstra o funcionamento
da funo logstica:
(x) =
1
1+exp()
Equao 8
Esta funo tem o valor de inclinao a, que tem como objetivo obter funes sigmides
com diferentes inclinaes, como poder ser visto na Figura 4.
Quando se deseja que a funo sigmide assuma valores negativos, usa-se a equao de
funo tangente hiperblica, definida pela Equao 9:
(x) = tanh () Equao 9
Na Figura 4, demonstrado graficamente o funcionamento das funes de ativaes
descritas acima.
Figura 4. Grficos das Funes de Ativao.
Fonte: Adaptado de Haykin (2001).
38
2.2.2 Topologia da Rede Neural
Segundo Russel e Norvig (1995), existem duas maneiras fundamentais de conectar os
neurnios para formar uma rede neural. Podem ser classificadas de redes feed-forward
(alimentadas frente) e recurrent network (redes recorrentes).
2.2.2.1 Feed-Forward
As redes feed-forward so dispostas em camadas, podendo conter uma ou mais de uma
camada (mltiplas camadas). A diferena entre as duas que, nas redes de mltiplas camadas,
existem uma ou mais camadas intermedirias, denominadas de camadas ocultas (RUSSEL;
NORVIG, 1995). Sobre estas camadas, Ludwig Jr. e Montgomery (2007) definem:
Camada de entrada ou distribuio: sua nica funo representar a distribuio de
informaes de entrada para cada neurnio na camada seguinte;
Camadas Ocultas: so constitudas por um ou vrios neurnios ocultos. A funo
deste neurnio capacitar a rede em extrair estatsticas. Quanto maior o nmero de
camadas intermedirias, maior a complexidade do problema, porm, um nmero
excessivo pode levar a resultados insatisfatrios; e
Camada de Sada: contm as classificaes ou as predies da rede.
Esta rede considerada acclica, pois o sinal de entrada propagado somente em
direo sada da rede. Existem dois tipos de redes feed-forward, os perceptrons (camada
nica) e multilayers perceptron (multicamadas). As redes MLP (multilayer perceptron) so
mais robustas que os perceptrons, pois so capazes de extrair informaes de ordem elevada.
(RUSSEL; NORVIG, 1995). A Figura 5 ilustra uma rede feed-forward de camada nica, ela
possui trs entradas e dois neurnios de sada.
Figura 5. RNA feed-forward de camada nica.
Fonte: Adaptado de Ludwig Jr. e Montgomery (2007).
39
A Figura 6 ilustra uma rede feed-forward de mltiplas camadas, com trs entradas, duas
camadas ocultas com trs neurnios em cada e dois neurnios na camada de sada.
Figura 6. RNA feed-forward de multicamadas.
Fonte: Adaptado de Ludwig Jr. e Montgomery (2007).
2.2.2.1.1 Incorporao de Tempo na Rede Neural
Segundo Haykin (2001), a incorporao de tempo em uma rede neural feed-forward
necessria em algumas aplicaes, que podem ser:
Previso e modelagem de sries temporais;
Cancelamento de rudo, no qual o objetivo usar um sensor primrio e um sensor
de referncia, para cancelar o efeito do rudo;
Equalizao adaptativa de um canal de comunicao desconhecido;
Controle adaptativo; e
Identificao de sistemas.
Para Haykin (2001), o acrscimo de tempo em uma rede neural pode-se representar em
duas formas:
Representao Implcita: tempo representado pelo efeito que tem sobre o
processamento de sinais de uma maneira implcita. Neste tipo de representao, o
tempo includo de forma indireta no modelo, tornando uma rede neural esttica
suprida como propriedades dinmicas, tornando-a sensvel quanto estrutura
temporal dos sinais portadores de informao; e
40
Representao Explcita: tempo representado na sua prpria representao
particular. Para entender melhor esta definio, cita-se o sistema de eco localizao
de um morcego, onde ele opera emitindo um curto sinal de frequncia modulada
(variao de frequncia pelo sinal de informao). Com isso, so realizadas
comparaes entre as frequncias codificadas atravs de um receptor auditivo, para
extrair a informao sobre a distncia at o alvo. Quando este alvo emite um eco,
um sinal casado com uma linha de atraso recebido, fornecendo uma estimativa do
alcance do alvo.
Para este projeto, foi utilizada uma rede neural feed-forward com propriedades
dinmicas, ou seja, com incorporao de tempo, utilizando a representao implcita. Para que
uma rede seja dinmica, ela deve possuir memria, podendo ser de longo ou curto prazo,
dependendo do tempo de reteno. Um bom modo de acrescentar memria de curto prazo em
uma rede seria incrementando atrasos de tempo, podendo ser adicionada nos pesos sinpticos
da rede ou na entrada da rede (HAYKIN, 2001).
Um exemplo de rede neural com esta propriedade a TLFN focada (focused time lagged
feed-forward network). Neste tipo de rede, h somente atrasos de tempo na camada de entrada.
A Figura 7 demonstra um exemplo de uma TLFN focada.
Figura 7. Focused Time Lagged Feed-forward Network.
Fonte: Adaptado de Samarasinghe (2007).
41
As entradas apresentadas a rede no instante t apresentada novamente no instante t+1,
porm com um atraso de tempo. Este procedimento repetido at atingir o nmero p de atraso
desejado, fazendo com o que a rede guarde na memria a auto correlao dos dados externos
(SAMARASINGHE, 2007).
A rede TLFN necessria para este projeto, pois os dados devero ser apresentados a
rede de forma sequencial, ao contrrio das feed-forward onde so apresentados de forma
aleatria (SAMARASINGHE, 2007).
2.2.2.2 Recorrentes
As redes feedback (recorrentes) se diferenciam das redes feed-forward por haver um ou
mais laos de realimentao, causando um efeito dinmico rede. Este lao, a sada de um
neurnio que pode ser a entrada para outro de uma camada anterior, e no caso da auto
realimentao, para o prprio neurnio, diferenciando-se de uma rede neural feed-forward
dinmica, onde no possui este ciclo. (HAYKIN, 2001).
Esta rede indicada para sistemas que possuem altas complexidades, pois exigem a
presena de mais ligaes e assim, aumentando o tempo de processamento computacional
(RUSSEL; NORVIG, 1995). A Figura 8 ilustra o funcionamento de uma rede neural recorrente.
Figura 8. Exemplo de uma Rede Neural Recorrente.
Fonte: Adaptado de Haykin (2001).
42
Na Figura 8, nota-se o uso do operador
1
. So os atrasos de tempo e sua
funcionalidade igual ao que acontece nas redes feed-forwards dinmicas. Um exemplo de
RNA recorrente a rede de Elman. A realimentao desta rede ocorre da sada de cada neurnio
da camada oculta para todos os neurnios desta mesma camada. Ela possui uma camada
denominada de Camada de Contexto (que tambm oculta) que so compostas por unidades
de contexto e simula a memria da rede.
O processamento desta rede funciona da seguinte forma: no instante t inicial, esta rede
ir se comportar que nem uma rede feed-forward, pois as unidades de contexto inicializadas
com a sada da camada oculta so iniciadas com o valor zero. Ainda neste instante t, os
neurnios ocultos iro ativar os neurnios da camada de contexto, armazenando a sada desta
iterao que ser utilizada no prximo ciclo. Aps a finalizao, executado o algoritmo
backpropagation, que ser detalhada no tpico 2.2.4, para a correo dos pesos sinpticos. No
prximo ciclo, os neurnios ocultos sero ativados pelas unidades de entrada e de contexto, que
possuem o valor da sada dos neurnios ocultos do primeiro ciclo (GARCIA, 2006).
A Figura 9 demonstra o funcionamento de uma rede de Elman, onde possuem trs
neurnios de entrada, dois neurnios ocultos, duas unidades de contexto e trs neurnios de
sada.
Figura 9. Rede de Elman.
Fonte: Garcia (2006).
43
A escolha da topologia adequada se baseia principalmente na experincia que o
desenvolvedor da rede possui, pois no existem regras para definir que topologias usar, e sim
indicaes, como o nmero de neurnios na cada intermediaria nunca deve ser inferior ao
nmero de neurnios nas camadas de entrada e sada. Uma boa metodologia para escolha da
topologia utilizar o mtodo de tentativa e erro, que foi utilizado neste trabalho. Seria testar
as topologias de redes, alterar a quantidade de neurnios e o nmero de camadas, at conseguir
que a rede neural consiga uma boa convergncia. (MANTOVANI, 2011).
2.2.3 Aprendizagem
Haykin (2001, p. 75) define aprendizagem no contexto de redes neurais como:
Um processo pelo qual os parmetros livres de uma rede neural so adaptados
atravs de um processo de estimulao pelo ambiente no qual a rede est
inserida. O tipo de aprendizagem determinado pela maneira pela qual a
modificao dos parmetros ocorre.
Haykin (2001) tambm define que este processo de aprendizagem implica algumas
sequncias de eventos:
1. RNA estimulada pelo ambiente;
2. Com esta estimulao, a RNA modifica o resultado; e
3. Responde de uma maneira nova ao ambiente, devido a estas modificaes ocorridas
na sua estrutura interna.
Portanto, o processo de aprendizagem um dos fatores mais importantes de uma rede
neural, pois evolu a inteligncia da rede. A melhoria desta inteligncia ocorre atravs de ajustes
aplicados em seus pesos (treinamento). Concluindo isto, cada iterao realizada neste processo
torna a rede cada vez mais instruda (HAYKIN, 2001).
2.2.3.1 Paradigmas de Aprendizado
Segundo Ludwig Jr. e Montgomery (2007), o processo de aprendizado de uma RNA
pode se dar de duas formas, o aprendizado supervisionado ou no supervisionado.
Aprendizado Supervisionado: apresentada a rede neural um conjunto de valores
de entrada e sada. A partir da entrada, a rede realiza o seu processamento e a sada
obtida comparada com a sada esperada. Caso esta comparao no tenha um
44
resultado satisfatrio, ajustes de pesos so realizados at chegar a um erro mnimo.
A Figura 10 explica o processo descrito; e
Figura 10. Aprendizagem Supervisionada
Fonte: Mantovani (2011).
Aprendizado No-Supervisionado: apresentada a rede neural somente conjunto de
valores de entrada. A rede escolhe livremente o padro de sada partir das regras
de aprendizado adotadas. Tem a finalidade de classificar os dados pelo
reconhecimento de padres, isto , detectar caractersticas em comum entre o
conjunto de dados.
Haykin (2001) ainda cita a aprendizagem por reforo, onde os valores na entrada no
so conhecidos (ou no usados). Somente repassada a rede se uma determinada sada est
correta ou no, recebendo um sinal do ambiente que permite avaliar a qualidade do resultado.
2.2.4 Algoritmo BackPropagation (Retropropagao)
Para obter sucesso na aprendizagem de uma rede neural, o principal fator responsvel
pelo sucesso ou no a escolha correta do algoritmo.
O algoritmo back-propagation representa um marco fundamental em redes neurais, pois
o principal mtodo para treinamento de redes multilayer perceptrons e tem resolvido o
problema de realizar a propagao reversa do erro em RNAs, problema que atrasou por muitos
anos o desenvolvimento na rea de redes neurais artificiais (CASTRO, 2001).
O algoritmo de retropropagao opera em dois passos. No primeiro passo, apresentado
um conjunto de dados na camada de entrada da rede, percorrendo-a camada por camada, at
que a resposta seja produzida pela camada de sada. Neste passo, nenhum peso sinptico
45
alterado. No segundo passo, a sada obtida comparada a sada desejada. Caso a sada no
estiver correta, um erro calculado a partir da sada at a camada de entrada, modificando os
pesos das conexes conforme o erro retropropagado (CASTRO, 2001). A Figura 11 mostra o
funcionamento do algoritmo.
Figura 11. Funcionamento do Algoritmo BackPropagation.
Fonte: Adaptado de Frhlich (2012).
Este algoritmo possui algumas limitaes. A principal que ele tende a ser muito lento,
pois algumas vezes so necessrios milhares de ciclos para se chegar a nveis aceitveis
(TONSIG, 2000).
2.2.5 Desempenho das Redes Neurais Artificiais
Para se alcanar bons resultados, Rafenes (1991) comenta que o desempenho de uma
RNA influenciado por dois fatores:
Convergncia
Tem o papel de identificar padres em um conjunto de dados, definido no procedimento
de treinamento. um fator muito importante, pois caso a rede no possua convergncia,
significa que ela no conseguiu aprender as relaes existentes entre os dados e, como
consequncia, no ir alcanar bons resultados. Para descobrir se uma rede conseguiu
convergir, pode se realizar um clculo denominado de MSE (Mean Square Error, ou erro mdio
quadrtico) (MARANGONI, 2009). Ela representada pela Equao 10:
46
=
1
=1
) Equao 10
Onde n o nmero de padres apresentados.
Generalizao
Tem o papel de encontrar padres no existentes nos dados de treinamento, aspecto
determinante para encontrar valores fora do padro (MARANGONI, 2009).
Segundo Haykin (2001), para uma rede neural poder generalizar de forma satisfatria,
depende da arquitetura da rede (parmetros da rede) e o conjunto de treinamento. Geralmente,
reduzindo o nmero de conexes aumenta a probabilidade de generalizao, porm pode
empobrecer o resultado final da previso.
2.3 Trabalhos Similares
Os subitens a seguir descrevem trabalhos que utilizam alguma tcnica de Inteligncia
Artificial para a predio de um ou vrios ativos da Bolsa de Valores, fazendo no final uma
anlise comparativa entra eles.
2.3.1 Uso de Minerao de Dados na Bolsa de Valores
Trabalho de Concluso de Curso proposto por Marcelo Berenstein da Universidade do
Vale Itaja (UNIVALI) onde usa a tcnica de Minerao de Dados para a predio de 17 papis
negociados na Bolsa de Valores. A escolha destes 17 papis foram os que possuem maior
liquidez e possuem maior observao pelos investidores.
Para a realizao deste TCC, foi escolhida a ferramenta Weka. Foi realizado testes com
vrios algoritmos diferentes, obtendo melhores resultados as que pertencem nas categorias de
rvore de Deciso e Regras de Classificao.
Ele concluiu que o uso de Minerao de Dados demonstrou-se eficiente na funo que
lhe foi proposta, onde conseguiu identificar indcios de que as cotaes dirias de alguns papis
estudados apresentaram padres de comportamento por diversas vezes no perodo estudado
(BERENSTEIN, 2010).
47
2.3.2 Redes Neurais Artificiais para Previso de Sries Temporais no
Mercado Acionrio
Trabalho de Concluso de Curso proposto por Pedro Henrique Marangoni da
Universidade Federal de Santa Catarina (UFSC) onde utiliza Redes Neurais Artificiais para a
predio do papel PETR4 (Petrobrs) utilizando o algoritmo backpropagation em uma rede
feedforward.
Neste TCC, para criao e treinamento da rede foi utilizada a ferramenta Matlab. A rede
possua 30 neurnios (no descreve a quantidade de neurnios em cada camada), momentum
em 0.6, erro mdio quadrtico em 10
10
limitando o nmero de iteraes em dez mil.
Ele concluiu que, em casos de momentos de pouca agitao internacional, sem grandes
choques, as previses utilizando redes neurais podem ser de grande valia para tomada de
deciso de entrar ou sair do mercado (MARANGONI, 2009).
2.3.3 Aplicao de Redes Neurais Artificiais na Anlise de Sries
Temporais Econmico-Financeiras
Tese de Mestrado proposto por Mauri Aparecido de Oliveira da Universidade de So
Paulo (USP) onde utilizada quatro tipos de redes neurais para a predio de sries temporais.
As sries temporais analisadas foram empresas do setor financeiro (Bradesco PN, Bradespar
PN, Itausa PN e Ita PN), e algumas empresas da rea alimentos, industrial e servios.
Os modelos utilizados so ARIMA-GARCH (Auto Regressive Integrated Moving
Average), RNA feed-forward, RNA treinada com filtro de Kalman estendido (EKF) e RNA
treinada com filtro de Kalman no estendido (UKF).
Ele concluiu que as redes feed-forward tm um melhor resultado de previso medida
que o parmetro ligado a estacionariedade (propriedades estatsticas que no mudam com o
tempo) aumentam. Ele obteve melhores resultados utilizando a RNA treinada com UKF
(OLIVEIRA, 2007).
48
2.3.4 A Neural Network Approach to Predicting Stock Exchange
Movements Using External Factors (Redes Neurais para Predio de
Movimentos da Bolsa de Valores Utilizando Fatores Externos)
Estudo realizado por OConnor e Madden, da Universidade Nacional da Irlanda, com
funo de avaliar o uso de indicadores externos para a previso dos movimentos no ndice Dow
Jones. Os indicadores neste caso foram os preos de commodities e taxas de cmbio.
Tiveram um resultado surpreendente, onde o retorno sobre o investimento foi de 23,5%,
durante o perodo que o ndice Dow Jones cresceu 13,05% no ano.
Para chegarem neste resultado, tiveram que realizar vrios ajustes na rede, alterando a
quantidade de neurnios e seus pesos. Concluram que a adio de fatores externos pode
melhorar os resultados, pois o experimento que retornou estes valores a que utilizou mais
fatores (OCONNOR; MADDEN, 2005).
2.3.5 Anlise Comparativa
Os trabalhos listados acima comprovam que o uso de Inteligncia Artificial na rea de
Redes Neurais Artificiais ou Minerao de Dados so eficientes no ambiente da Bolsa de
Valores, onde os resultados obtidos foram bons, comparando com a dificuldade que a predio
de movimentos futuros.
Dentre os trabalhos mencionados, o mais semelhante a este o realizado pelo Pedro
Henrique Marangoni, onde ele previu os valores futuros da ao da Petrobrs (PETR4). As
tcnicas que ele utilizou foram propostas por RAO (1995) e as mesmas foram utilizadas neste
projeto. Ele conseguiu fazer boas previses em at 20 dias e concluiu que as redes neurais tem
um poder de previso muito bom para perodos curtos. Para longos perodos, rede neural pode
ser til caso o mercado se encontre livre de fortes crises econmicas e polticas de nvel
internacional.
49
2.3.5.1 Quadro Comparativo
O Quadro 4 demonstra um comparativo entre os trabalhos citados anteriormente. Na
primeira coluna demonstra a subseo dos trabalhos similares e nas outras as particularidades
de cada. A ltima linha descreve os parmetros deste projeto.
Trabalho
(seo)
Qtd. de aes
estudadas
Topologia
utilizada
Quantidade
de neurnios
Algoritmo
utilizado
2.3.1 17 aes - - rvore de
Deciso, Regras
de Classificao.
2.3.2 1 ao Feed-forward 30 neurnios
(no
especfica as
quantidades
nas camadas)
Backpropagation
with momentum
2.3.3 20 aes ARIMA-GARCH,
Feedforward,UKF
estendido,UKF
no estendido
Topologias:
10-1-1, 10-2-
1, 10-3-1, 10-
4-1, 10-5-1,
10-6-1, 10-7-
1, 10-8-1.
Backpropagation
2.3.4 1 ao Feedforward Melhor
resultado
obtido: 37-30-
20-1
-
Soluo
Proposta
3 aes TFLN 5-11-11-8-1 Backpropagation
with momentum
Quadro 4. Comparao entre os Trabalhos Similares.
O estudo de trabalhos similares auxiliou a realizao do projeto, pois os modelos iniciais
utilizados nas RNA foram baseados neles, alm da escolha de alguns parmetros, como por
exemplo, a funo de ativao tangente hiperblica (tanh).
50
2.4 Ferramentas de Redes Neurais Artificiais
Existem atualmente vrias ferramentas para facilitar o processo de criao de uma rede
neural, com funo de diminuir as dificuldades operacionais existentes. No total, foram
estudadas trs ferramentas, onde cada uma possui vantagens e desvantagens e
consequentemente difcil dizer qual a melhor ou a pior.
Porm, aps anlises executadas, foi optado pelo software Neuroph Studio, por ser um
software livre e que est sendo atualizado constantemente, onde so adicionados novos recursos
e corrigindo bugs encontrados (podem ser relatados aos desenvolvedores atravs do site oficial).
um software leve e possu todos os recursos necessrios para a execuo do projeto.
2.4.1 JavaNNS
Java Neural Network Simulator um software livre e foi desenvolvido no Instituto
Wilhelm-Schickard em Tbingen, na Alemanha. a verso do SNNS (Stuttgart Neural
Network Simulator) produzida em Java e possu uma interface mais intuitiva ao usurio
(JAVANNS, 1995).
A Figura 12 demonstra as principais funes do programa, sendo dividida em quatro
partes. Na parte posterior esquerda, mostra a rede neural criada, com dois neurnios de
entrada, um intermedirio e um de sada, demonstrando o funcionamento da porta lgica XOR.
Na posterior direita, demonstra a evoluo do erro durante o treinamento, junto com um log
abaixo dela. Na parte inferior esquerda, demonstra os parmetros utilizados na rede, como a
taxa de aprendizagem, nmero de ciclos do treinamento, entre outros.
51
Figura 12. Viso Geral do JavaNNS.
Fonte: JavaNNS (1995).
2.4.2 Matlab
O Matlab (Matrix Laboratory) um software comercial desenvolvido por Cleve Moler,
Jack Little e Steve Bangert na Universidade de Stanford em 1984. Neste mesmo ano, fundaram
a MathWorks, uma empresa especializada em software de computao matemtica.
O Matlab sistema interativo produzido na linguagem C para computao tcnica e
cientfica em geral, possuindo vrios aplicativos especficos (denominado de toolboxes), que
so colees de funes usadas para resolver problemas, como manipulao algbrica,
processamento de sinais, simulao de sistemas dinmicos, redes neurais, entre outros
(WIKIPEDIA, 2012).
Existem dois mtodos de utilizar o toolbox de redes neurais no Matlab, atravs de linhas
de comando ou interface grfica.
52
O uso de linhas de comando no Matlab muito simples. A Figura 13 demonstra a
execuo de uma rede neural com valores aleatrios.
Figura 13. Criao de uma Rede Neural atravs de Linhas de Comando no Matlab.
Onde P utilizada para definir as entradas e T as sadas da rede. Net tudo que
envolve a rede neural, desde o modelo que ir ser utilizado (no caso acima foi utilizado uma
feed-forward, que representada por newff) at ao treinamento. No processo de treinamento,
ele abre uma interface (que esta na parte esquerda da imagem), na qual demonstra o processo
de treinamento da rede, tanto textualmente como graficamente.
Na interface grfica, primeiramente necessrio digitar o comando nntool na linha de
comandos do Matlab. Ele abre uma tela inicial onde so apresentados os conjuntos de entrada,
sada, padres de sada e erros, como demonstrado na Figura 14.
53
Figura 14. Interface Grfica no Matlab.
Nas variveis Entrada e Sada esto armazenados os valores a serem recebidos e na
RedeTTC est a configurao da rede. Aps finalizar o treinamento, os valores recebidos
esto guardados em RedeTTC_outputs e os erros em RedeTTC_errors. Para este teste,
foram usados valores aleatrios (os mesmos utilizados no teste anterior).
Durante a execuo dos testes, este software no demonstrou nenhum erro. Ele muito
leve e simples de se utilizar, porm um software comercial e devido ao seu custo elevado para
aquisio no foi optado por ele para a execuo do projeto.
2.4.3 Neuroph Studio
Neuroph Studio um software de cdigo aberto e foi desenvolvido em 2008 por Zoran
Sevarac na Universidade de Belgrade, na Srvia. um ambiente para criao de redes neurais
construda em Java em cima da plataforma NetBeans, integrado juntamente com os mdulos
bsicos, para os desenvolvedores criarem, testarem e implementarem vrios componentes Java
baseado em redes neurais (ORACLE, 2011).
54
Como este software foi optado para o desenvolvimento do projeto, ser descrito
brevemente o processo da criao de uma rede neural. A Figura 15 descreve os primeiros passos
e foi dividida em trs etapas:
Primeira etapa: consiste na escolha do nome e da topologia da rede neural;
Segunda etapa: determina a quantidade de neurnios e suas respectivas camadas, junto
com o tipo de funo de ativao e a escolha do algoritmo de aprendizagem; e
Terceira etapa: mostra a rede neural criada.
Figura 15. Primeiros passos no Neuroph Studio.
Fonte: Adaptado de Oracle (2011).
O prximo passo a criao do Training Set, onde so armazenados todos os dados a
serem recebidos pela rede neural. A Figura 16 foi separada em duas partes: a esquerda onde
denomina o conjunto de treinamento, nmero de entradas e sadas da rede. Na parte a direita,
demonstra onde sero importados os dados e o formato em que eles esto (tem como opo
escrever diretamente no programa). Ele possui suporte em importar arquivos em modo texto,
no qual os dados podem ser separados por espao, tab (um dado abaixo do outro), , e
;.
55
Figura 16. Training Set.
Fonte: Adaptado de Oracle (2011).
A base de dados ficou armazenada na seguinte forma:
Figura 17. Training Set Completo.
Fonte: Adaptado de Oracle (2011).
Com o conjunto de treinamento finalizado, o prximo passo escolher os parmetros
da rede neural e comear o treinamento. A Figura 18 demonstra a tela onde seleciona os
parmetros da rede.
56
Figura 18. Parmetros de Aprendizagem da Rede Neural.
Fonte: Adaptado de Oracle (2011).
E por fim, o grfico da evoluo do erro demonstrado e nota-se a minimizao dele
durante o processo de aprendizagem.
Figura 19. Grfico da Evoluo do Erro.
Fonte: Adaptado de Oracle (2011).
Durante a execuo dos testes, o programa no apresentou erros, e desempenhou todas
as tarefas a que se propunha adequadamente. Com constantes atualizaes, para correo de
bugs e adio de novas funcionalidades, foi optado por este software para a execuo do projeto.
57
3 DESENVOLVIMENTO
O objetivo deste projeto foi criar uma rede neural capaz de identificar futuras cotaes
da ao BVMF3 pertencente BM&FBOVESPA. O processo da criao e treinamento de uma
rede neural exaustivo, sendo que o resultado depende de uma srie de treinos, no qual um
modelo de rede alterado sucessivas vezes, pois cada modelo de rede neural possui suas
particularidades.
Aps a finalizao do treinamento da BVMF3, foi utilizada a mesma topologia para
outras duas aes, com finalidade em verificar se a topologia utilizada na BVMF3 pode servir
para outras aes.
O desenvolvimento foi divido em trs etapas: (i) modelagem, que contm todo o pr-
processamento da criao da rede; (ii) treinamento, com o processo de treinamento da rede; e
(iii) anlise de dados, possuindo os resultados obtidos pela rede.
3.1 Modelagem
A modelagem da RNA est divido em trs etapas: (i) Arquitetura e Algoritmo, na qual
est descrito todo o processo da escolha da arquitetura e do algoritmo para treinamento
(projetada atravs de trabalhos similares e testes executados); (ii) Entrada de Dados, onde
descrito todas as entradas da rede neural, em conjunto com os indicadores tcnicos; e (iii)
Normalizao de Dados, descrevendo o processo realizado para converter os dados em um
intervalo entre -1 a 1, necessrio pois a funo de ativao escolhida reconhece somente valores
que esto entre esta faixa.
3.1.1 Arquitetura e Algoritmo
A arquitetura da rede neural escolhida para a execuo deste projeto foi a TLFN focada
(focused time lagged feed-forward network). Esta arquitetura semelhante Multilayer
Perceptron, diferenciando-se somente na adio de atraso de tempo na camada de entrada,
termo denominado de momentum. Como j descrito na fundamentao terica, ela necessria
para este projeto pois os dados necessitam entrar de forma sequencial na rede.
58
O algoritmo de aprendizagem para esta rede ser a backpropagation with momentum,
que a mais indicada para este tipo de arquitetura. O termo momentum define o atraso de tempo
na camada de entrada da rede.
3.1.2 Entrada de Dados
A entrada da rede ser composta pelos indicadores tcnicos, fechamento dirio da
IBOVESPA (inputs) e da ao BVMF3 (output). O perodo dos dados utilizados foi de
20/08/2008 (data da abertura da ao na Bolsa) a 10/10/2012. Os dados para treinamento foram
separados entre as datas 20/08/2008 a 03/05/2012. Os dados foram retirados do software
Economtica. Os indicadores tcnicos utilizados so:
ndice de Negociabilidade: este ndice composto pela Equao 11:
=
Equao 11
ni a quantidade de negcios realizados pelo papel, N a quantidade de negcios
realizados na Bolsa de Valores, vi o volume financeiro do papel, e V o volume financeiro
da Bolsa de Valores.
ROC (Rate of Change): este ndice composto pela Equao 12:
() =
[()()]
[()+()]
Equao 12
p(t) o valor do fechamento da ao no dia, BA a mdia mvel (tcnica para analisar
dados em um intervalo de tempo) das ultimas cinco cotaes e n o nmero de dias para
indicar o grau de mudana.
RSI (Relative Strenght Index): Este ndice composto pela Equao 13:
() = 100
100
1+()
Equao 13
RS(t) a mdia dos valores que fecharam em alta ou baixa em um perodo t dias.
%R (Percentual R): Este ndice composto pela Equao 14:
%() = 100 (
max()preo(n)
max()min()
) Equao 14
59
max(t) o maior valor e min(t) o menor valor da ao em um determinado perodo e
preo(n) o valor do fechamento da ao no dia.
3.1.3 Normalizao dos Dados
Antes de iniciar o treinamento, necessrio um pr-processamento nos dados,
denominado de normalizao. A normalizao tem como objetivo converter os dados em um
intervalo de -1 a 1, pois a funo de ativao utilizada na RNA (tanh) processa valores somente
neste intervalo.
Os modelos apresentados por Rao (1995) e Marangoni (2010) propuseram normalizar
os dados do menor ao maior valor, porm existe a possibilidade das futuras cotaes
extrapolarem estes valores, podendo causar interferncias no resultado.
No TTC I foi feita a opo de utilizar uma faixa de corte para cada dado de entrada,
porm durante os treinamentos realizados no TTC II, os resultados obtidos no foram
satisfatrios. O motivo destes resultados no conhecido, porm o provvel problema a
diferena entre as frmulas de normalizao, pois como se trata de um problema que necessita
de um alto grau de preciso, estas diferentes frmulas podem ter interferido nos resultados.
Com isso, os dados foram normalizados de duas formas, com objetivo de treinar em
ambas as normalizaes e comparar os resultados. A faixa de normalizao foi de -1 a 1 (mesmo
sabendo da possvel extrapolao) e de -0.5 a 0.5, diminuindo as chances de evitar a
extrapolao e evitando a distoro nos dados. A Equao 15 demonstra a frmula utilizada
para a normalizao de -1 a 1:
= (
()
()
) 2 1 Equao 15
A Equao 16 demonstra a frmula utilizada para normalizar os dados entre -0,5 a 0,5.
= (
) 0,5 Equao 16
Mnimo e o mximo em ambas as frmulas seriam o menor e o maior valor na faixa de
dados.
60
A Figura 21 demonstra a entrada de dados na rede. Ela foi dividida em trs partes, a
parte (a) esto os dados sem normalizao, (b) se encontram os dados com normalizao de -1
a 1 e (c) demonstra os dados normalizados entre -0,5 a 0,5.
(a)
(b)
(c)
Figura 20. Entrada de Dados na Rede Neural: (a) Dados sem normalizao; (b) Dados
com Normalizao -1 a 1; (c) Dados com Normalizao -0.5 a 0.5.
61
3.2 Treinamento
Para testar a eficincia da topologia e das entradas de dados escolhidas, foram
executados vrios treinos com objetivo de encontrar uma rede neural que alcance alto grau de
preciso. Para obter bons resultados necessrio vrios ajustes na rede. Estes ajustes se baseiam
em alterar a quantidade de neurnios ocultos, o termo momentum e a taxa de aprendizado,
executar o treinamento e testar os resultados obtidos.
Primeiramente necessrio importar os dados de treinamento para o Neuroph Studio.
Foram criadas duas tabelas no Excel, uma com os dados normalizados de -1 a 1 e -0.5 a 0.5,
entre os dias 20/08/2008 a 03/05/2012 (perodo do treinamento). Nos treinamentos iniciais, foi
utilizada a normalizao entre -0.5 a 0.5. Aps os treinos e na escolha da topologia da rede
neural, foi aplicada a outra normalizao. A Figura 21 demonstra parte dos dados importados
no Neuroph Studio.
Figura 21. Dados de treinamento importados no Neuroph Studio.
O prximo passo importar os dados para o teste. Os clculos dos indicadores tcnicos
foram definidos para um perodo de dez dias. Portanto, os dados foram separados de dez em
dez e foram salvos, separados pelo tipo de normalizao, e importados para o Neuroph Studio.
A Figura 22 mostra os dados de treinamento e teste importados para Neuroph Studio.
62
Figura 22. Dados importados para o Neuroph Studio.
O prximo passo iniciar os treinamentos. Foram criadas e treinadas vrias redes,
utilizando de 28 a 32 neurnios na camada oculta, o termo momentum entre 0.3 a 0.6 e a taxa
de aprendizado entre 0.1 a 0.2, pois com outros valores a rede no conseguia convergir, obtendo
resultados no satisfatrios.
Durante o treinamento, alguns parmetros j foram pr-estabelecidos e no foram alterados
(utilizados em todos os treinamentos):
Camada de entrada: cinco neurnios (ndice Ibovespa, ndice de negociabilidade, rate
of change, relative strenght index e percentual R).
Camada de sada: um neurnio (fechamento dirio da BVMF3).
Funo de ativao: tangente hiperblica.
Algoritmo de aprendizagem: backpropagation with momentum.
Para os treinamentos, foi adotada a seguinte metodologia: os treinos foram realizados e
o resultado dos testes era comparado com valores reais. As redes que obtiveram resultados
satisfatrios no treinamento e nos testes foram guardadas e utilizadas para uma posterior
anlise. As demais redes, apesar de fornecerem indcios para a criao das outras redes, foram
descartadas.
63
Para comparar os dados obtidos pelas redes selecionadas, foi necessrio aplicar a
frmula inversa da normalizao. A Equao 17 demonstra a frmula inversa da normalizao
entre -0,5 a 0,5.
= (( +0,5) ( ) +()) Equao 17
Alm da comparao de resultados, outras anlises foram feitas:
Grficos com o fechamento do dia: com eles, pode se identificar as seguintes situaes:
o Ponto de entrada (melhor poca para comprar aes);
o Ponto de sada (melhor poca para vender aes);
o Suportes e resistncias; e
o Tendncias;
A Figura 23 demonstra um exemplo da tcnica descrita anteriormente. Foi escolhido
um perodo de um ms ao BVMF3 para demonstrar esta tcnica.
Figura 23. Grficos com fechamentos de 1 ms da ao BVMF3.
Para ajudar a identificar tendncias, necessrio traar uma linha no grfico. Existem
trs tipos de tendncias: LTA, caracterizada por formao de topos e fundos ascendentes
64
(escadinha para cima); LTB, caracterizada por topos e fundos descendentes (escadinha para
baixo); e a Tendncia Lateral, caracterizada por nenhuma formao de direo. Na Figura 23,
visvel a criao de uma LTB.
Grficos com mdia mveis simples de dez dias: semelhante ao anterior, porm retira
os rudos que so representados pelas oscilaes mais fortes, facilitando entender o
comportamento do preo das aes, como se pode observar na Figura 24. utilizado o
mesmo perodo da Figura 23. Comparando-as, nota-se a diminuio de rudos;
Figura 24. Grfico com mdia mvel simples de 10 dias da ao BVMF3.
Acerto nas oscilaes: identifica se a rede consegue identificar altas e baixas no perodo
estudado.
O Quadro 5 demonstra a topologia das redes neurais que obtiveram destaque nos
resultados. Para melhor demonstrao, a ltima coluna demonstra a mdia aritmtica do MSE
dos testes. Neste quadro, nota-se um MSE baixo no treinamento e nos testes, significando que
as redes conseguiram obter uma convergncia satisfatria.
65
Topologia Momentum Taxa de
Aprendizado
MSE alcanado
no Treinamento
Mdia do
MSE dos
Testes
5-11-11-8-1 0,4 0,2 0,000125 0,007654474
5-12-12-4-1 0,4 0,2 0,0002 0,009391912
5-12-12-6-1 0,3 0,1 0,000250 0,018906318
5-13-10-6-1 0,5 0,2 0,0002 0,008912042
5-14-9-9-1 0,5 0,2 0,000150 0,007316903
5-15-10-5-1 0,3 0,2 0,000175 0,008102043
5-15-8-8-1 0,4 0,2 0,0002 0,008910890
Quadro 5. Quadro comparativo dos resultados.
Aps este passo, foi escolhida uma rede neural para dar continuao no projeto. A rede
que obteve melhor resultado foi a primeira da tabela, cuja topologia 5-11-11-8-1. A Figura 25
demonstra a RNA escolhida e as ligaes entre os neurnios.
Figura 25. Viso da RNA criada.
66
A Figura 26 demonstra a evoluo do erro durante o processo de treinamento. A
execuo do treinamento levou menos de um minuto.
Figura 26. Evoluo do Erro.
Apesar de no demonstrar nenhuma oscilao durante o treinamento no grfico, ela
comeou com erro em 0.009, at chegar na interao 700 e alcanar o erro mnimo determinado
(0.000125).
Foi realizado uma anlise no MSE dos testes da rede neural escolhida. Os resultados
foram coletados e postos em um grfico para identificar se o MSE permanecia constante durante
o perodo estudado ou se ele evolua ou declinava durante este tempo. A Figura 27
demonstra estes resultados.
67
Figura 27. Evoluo do MSE.
De acordo com o grfico da Figura 27, nota-se que medida que o tempo de
previso aumenta, o MSE tambm aumenta. A consequncia deste aumento ir trazer resultados
no to precisos de acordo que o tempo passa e talvez seja necessrio atualizar os dados e
realizar novos treinamentos, caso este MSE continue a aumentar. Os resultados obtidos pela
rede neural esto demonstrados na seo seguinte.
3.3 Anlise dos Resultados
Para melhor compreenso, este tpico foi divido em trs etapas: na seo 3.3.1 contm
todos as anlises realizadas na ao BVMF3. Nesta etapa est incluso os resultados obtidos com
a normalizao de -1 a 1, comparando-o com a normalizao escolhida. Na seo 3.3.2 contm
todas as anlises realizadas na ao GETI4 e na seo 3.3.3 contm todas as anlises realizadas
na ao PETR4. Nestas duas aes, a normalizao de treinamento e teste foi de -0,5 a 0,5.
Alm dos grficos e das mdias mveis simples, foi encontrado uma tcnica de anlise
que muitos investidores aconselham a usar, denominado de mdia mvel tripla. Este modelo
foi proposto pelo portal de investimento Infomoney (2012), no qual h um cruzamento de
mdias mveis entre 5, 10 e 20 dias. Seus sinais de compra ou venda so identificados nas
seguintes possibilidades:
68
Sinais de venda: quando as trs mdias se movem numa tendncia de queda;
Sinais de compra: quando as trs mdias se movem numa tendncia
ascendente. Esta tendncia pode ser visualizada da seguinte forma:
Quando a mdia mvel de cinco dias maior que as outras duas mdias;
Quando a mdia mvel de dez dias est maior que a mdia de vinte dias;
e
Quando a mdia mvel de vinte dias est abaixo que as outras duas;
A Figura 28 demonstra o grfico com a utilizao desta tcnica. Foi escolhido um
perodo de um ms ao BVMF3 para demonstrar esta tcnica.
Figura 28. Utilizao de Mdia Mvel Tripla.
Para demonstrar a utilizao desta tcnica, foram demarcadas trs pontos no grfico. No
ponto P1, nota-se uma tendncia de crescimento, pois a partir do inicio deste ponto as duas
mdias mveis mais rpidas entram em fase de ascendncia. Como a mdia de 20 dias de
longo prazo, difcil notar diferena at que os preos se mexam consideravelmente. No ponto
P2, nota-se uma tendncia de venda, pois as trs mdias mveis entram em queda. No ponto
trs, nota-se um perodo de compra, pois as mdias mveis possuem tendncia de crescimento.
69
Este cruzamento tende a falhar algumas vezes, pois pode identificar pontos de compra
ou venda algum tempo antes ou depois do tempo ideal (Infomoney, 2012). Como esta anlise
foca a curto prazo, necessrio se obter erros muito pequenos para evitar a entrada ou sada do
mercado em perodos ruins, evitando principalmente os intradays (compra e venda no mesmo
dia), pois h um custo quando se adquire aes.
3.3.1 Anlise de Resultados: BVMF3
A Figura 29 demonstra o grfico comparando as previses obtidas com os valores reais.
O perodo de anlise foi de 04/05/12 a 10/10/2012. Os resultados so considerados satisfatrios,
pois, predominantemente no primeiro ms, as duas linhas se posicionam praticamente no
mesmo lugar, comprovando o MSE obtido (na faixa de 10
4
) e demonstrado na Figura 27. A
partir do terceiro ms, apesar das duas linhas se afastarem, pode se observar a semelhana entre
elas, o que poderia ajudar o investidor na compra e venda de aes.
Figura 29. Comparao Previso x Fechamento BVMF3.
A Figura 30 comprova que os resultados obtidos no primeiro ms foram satisfatrios,
no qual, por vrias vezes, o preo obtido pela rede ficou igual ao fechamento real, demonstrando
que a rede neural estruturada neste projeto possui poder de predio para a ao BVMF3.
70
Figura 30. Fechamento BVMF3 x Previso - Ms Maio/Junho.
A Figura 31 demonstra a utilizao de mdia mvel tripla nas predies de 18 de junho
a 31 de julho. Na mesma figura, foram marcados dois fatos de compra e venda de aes. No
ponto de compra, a mdia mvel de vinte dias fica abaixo das outras duas mdias. Neste mesmo
perodo, estas duas mdias esto em alta, sinalizando que a tendncia dos preos subir. No
ponto de venda, as mdias mveis de cinco e dez dias entram em um perodo de queda, ficando
abaixo da mdia mvel de vinte dias, demonstrando um sinal de venda. Atravs desta tcnica o
investidor poderia ter lucrado R$1,38 por ao, considerado um preo elevado se comparado
ao preo da ao. Porm, se o investidor no est disposto a correr riscos, o momento de
cautela, pois a previso demonstra uma inverso constante de posies das mdias,
principalmente nos primeiros quinze dias.
71
Figura 31.Predio Junho/Julho com Mdia Mvel Tripla utilizando normalizao -0,5 a 0,5.
Foram analisados os dados do ms de agosto e setembro. Como foi visto o resultado do
MSE da Figura 27 e dos resultados obtidos da predio na Figura 29, os preos reais de
fechamento e os obtidos pela rede neste perodo no conseguiram obter semelhana. Porm, os
resultados obtidos pela rede foram separados em dois grficos e foram comparados. Junto,
foram traado as linhas de tendncia, suporte e resistncia, como pode ser observado na Figura
32.
72
(a)
(b)
Figura 32.Comparao Dados Rede x Dados Reais - Ms de Agosto com normalizao
-0,5 a 0,5: (a) Dados obtidos pela rede neural; (b) Fechamento BVMF3.
Apesar dos valores estarem distantes, ele consegue identificar corretamente a tendncia
de alta (representada pela linha de tendncia de alta, ou LTA), suporte e resistncia do ms.
Acertou 83% de acerto nas oscilaes, significando um timo resultado para investidores que
vendem ou compram aes a curto prazo. A Figura 33 demonstra os resultados do ms de
setembro, utilizando as mesmas tcnicas de demonstrao. Nota-se que mesmo os valores
estarem distantes, ele consegue identificar corretamente a tendncia de queda (representada
73
pela linha de tendncia de baixa, ou LTB) e as oscilaes (neste perodo obteve 78% de acerto
nas oscilaes), no qual pode ser visualizado principalmente ao fim do ms, no qual consegue
identificar uma forte queda no preo da ao, antecipando ao investidor um timo momento
para vender suas aes.
(a)
(b)
Figura 33.Comparao Dados Rede x Dados Reais - Ms de Setembro com normalizao -0,5
a 0,5: (a) Dados obtidos pela rede neural; (b) Fechamento BVMF3.
74
3.3.1.1 Anlise de Resultados: BVMF3 Normalizao -1 a 1
Nesta anlise, o MSE obtido pelo treinamento foi de 0.00083, maior que o alcanado
pela outra normalizao. Aps a finalizao do treinamento, foi realizada a anlise do MSE dos
testes, podendo ser visualizado na Figura 34.
Figura 34. Evoluo do MSE usando Normalizao -1 a 1.
Nota-se que a evoluo tambm demonstra valores maiores que os obtidos pela outra
normalizao. Porm, com timos resultados no perodo de 30 a 60 dias, chegando a erros na
faixa de 10
3
, fazendo que a rede obtenha valores prximos ao real. A Figura 35 demonstra
estes resultados comparando com os reais.
Figura 35. Previso Rede x Fechamento BVMF3 utilizando normalizao de -1 a 1.
75
Analisando a Figura 35, nota-se resultados muito bons principalmente no comeo e na
metade do tempo de anlise. Porm, no obteve bons acertos nas oscilaes entre os meses de
maio a junho, ao contrrio da outra normalizao, que foi a melhor poca em que obteve estas
previses. A Figura 36 demonstra de forma ampliada os resultados obtidos no primeiro ms de
anlise. Como pode ser visualizado, os resultados no foram to satisfatrios se comparado
outra normalizao, no qual por muitas vezes os resultados ficaram iguais. Foi realizada uma
anlise das oscilaes e tiveram 55% de igualdade entre as duas, um valor considerado arriscado
ao investidor que opta por compra e venda de aes.
Figura 36. Previso x Fechamento BVMF3 - Ms Maio/Junho - Normalizao de -1 a 1.
A Figura 37 demonstra a tcnica de mdia mvel tripla no perodo entre 13 de junho a
25 de julho, perodo no qual a rede obteve resultados prximos ao real e com finalidade de
comparar o resultado com a outra normalizao, para determinar se o perodo de compra/venda
das aes se encontram no mesmo perodo. Nota-se uma similaridade entre o resultado da mdia
mvel tripla da Figura 37 com o da Figura 31. Ambas detectam praticamente o mesmo perodo
ideal de compra e venda de aes, podendo lucrar o investidor neste caso, R$1.33 por ao
(aumento de aproximadamente 11% neste perodo). Tambm sinaliza muita cautela ao
investidor que opta por segurana pela constante mudana de posio das mdias.
76
Figura 37. Predio Junho/Julho utilizando Mdia Mvel Tripla. Normalizao -1 a 1.
Por fim, foram analisados os meses de agosto e setembro e comparado com os valores
de fechamento da BVMF3. Foi utilizada a tcnica de traar a linha de tendncia, suporte e
resistncia, com objetivo de visualizar se a rede conseguiu identificar corretamente estes pontos.
A Figura 38 demonstra os resultados obtidos em agosto. Eles identificaram corretamente a
tendncia de crescimento, representado atravs da linha LTA (linha de tendncia de alta) e por
R$0.03 no identifica corretamente a resistncia no perodo estudado. Alcanou 80% de acertos
nas oscilaes, em um ms onde ocorreram muitas altas e baixas, dando chance ao investidor
em obter lucros.
77
(a)
(b)
Figura 38. Comparao Dados Rede x Dados Reais - Ms de Agosto com normalizao
-1 a 1: (a) Dados obtidos pela rede neural; (b) Fechamento BVMF3.
A Figura 39 demonstra os resultados obtidos em setembro, utilizando as mesmas
tcnicas trabalhadas no ms de agosto. Os resultados obtidos neste ms no foram to bons se
comparar aos outros. Conseguiu identificar a tendncia de queda do ms e o suporte e alcanou
um resultado considervel (76,5%) nas oscilaes, podendo ser arriscado para investidores que
focam seus investimentos a curto prazo. Teve como principal sucesso em identificar a forte
queda no fim do ms, significando para investidor realizar a venda delas o mais rpido possvel,
pois se ele vender elas no dia 27/08/12, ele consegue obter um preo de R$11.76 por cada. Dois
dias depois, cada ao custaria R$10.75, evitando perdas bem significativas.
78
(a)
(b)
Figura 39. Comparao Dados Rede x Dados Reais - Ms de Setembro com
normalizao -1 a 1: (a) Dados obtidos pela rede neural; (b) Fechamento BVMF3.
O principal propsito em se utilizar os dois tipos de normalizao foi em determinar se
a diferena entre eles iriam causar grandes diferenas no resultado final. Como pode ser
observado nos resultados, obtiveram uma diferena considervel somente na anlise do
primeiro ms, no qual a normalizao entre -0.5 a 0.5 obteve melhores resultados. Porm aps
este perodo, na maioria das vezes, ambas identificaram as oscilaes da mesma forma.
Portanto, qualquer das duas normalizaes que forem utilizadas, poder se obter resultados
satisfatrios. A Figura 40 demonstra a comparao dos resultados das duas normalizaes.
Nota-se que as oscilaes ficaram parecidas, exceto no perodo j comentado anteriormente.
79
Figura 40. Comparao dos resultados entre as normalizaes.
3.3.2 Anlise de Resultados: GETI4
Para esta anlise, foi utilizada a mesma topologia utilizada da ao BVMF3. Foi
ampliado o perodo dos dados utilizados no treinamento, comeando na data 02/01/2006,
duplicando a quantidade de dados de treinamento, e finalizando em 31/07/2012. O MSE obtido
no treinamento foi de 0.0004 e com a mdia de aritmtica de 0,0097939969 nos testes.
A Figura 41 demonstra a comparao dos resultados obtidos de agosto e setembro. Nota-
se um equilbrio nos resultados somente nos vinte primeiro dias, e aps este momento ela no
conseguiu prever a queda forte que a ao obteve. Este fato foi detalhado nos riscos do TTC I,
explicando que a rede no teria capacidade de prever problemas internos da ao.
Figura 41. Previso x Fechamento GETI4.
Foi pesquisado o motivo desta queda. Segundo o investidor profissional Guilherme
Barros, do portal Isto Dinheiro (2012), esta queda foi reflexo de uma medida anunciada pelo
80
governo. Os investidores consideram que a reduo no preo das tarifas de energia pode afetar
a lucratividade das empresas. Este fato prejudicou a maioria das empresas de gerao de
energia, no qual se destacam as quedas da Cemig (27,4%), AES Tiet (15,4%) e da Eletrobrs
(8,6%).
Por causa desta queda, foi analisada somente as duas primeiras semanas da ao. Ela
no se comportou satisfatoriamente, obtendo 65% de acerto nas oscilaes, um nmero baixo
comparado ao nmero de dias analisados. A Figura 42 demonstra os resultados obtidos neste
perodo.
Figura 42. Anlise das duas semanas iniciais GETI4.
Na tentativa de melhorar o resultado deste perodo, foram realizadas as seguintes
mudanas:
Usar a mesma quantidade de dados para treinamento utilizado na ao BVMF3;
Alterar o momentum e a taxa de aprendizado;
Realizar os testes nas outras seis topologias que obtiveram resultados satisfatrios; e
Utilizar a normalizao -1 a 1.
Os resultados obtidos nestas tentativas foram semelhantes ou piores a este. Infelizmente
o perodo estudado foi uma poca em que ela obteve grandes oscilaes (na primeira semana
estudada, ela foi de R$28.30 a 30.02) devido s notcias que foram comentadas anteriormente,
dificultando a previso.
Para prever esta ao, talvez seja necessrio esperar um tempo, para atualizar os dados
de treinamento e fazer com o que a rede consiga identificar esta queda.
81
Portanto, atravs desta previso, dificulta em concluir se a topologia utilizada na ao
BVMF3 pode servir para outras aes. Porm, se conclu o que foi comentado na introduo e
na anlise de riscos do TTC I, que redes neurais no tm como prever problemas internos na
ao e que quanto mais a ao oscila, maior a dificuldade de predio.
3.3.3 Anlise de Resultados: PETR4
Para esta anlise, foi utilizada primeiramente a mesma topologia e os parmetros
utilizados na ao BVMF3. Foi ampliado o perodo dos dados utilizados no treinamento,
comeando na data 20/08/2008 (mesma data de inicio do treinamento da BVMF3) at o dia
31/07/2012. O MSE obtido no treinamento foi de 0.000560 e com a mdia de aritmtica de
0,0262097 nos testes, um erro considerado muito alto se comparado aos outros testes realizados.
A Figura 43 demonstra os resultados obtidos. Nota-se que os resultados no foram satisfatrios,
demonstrando oscilaes que no ocorreram e fechamentos se distanciando conforme o perodo
se prolonga.
Figura 43. Previso x Fechamento PETR4. Topologia 5-11-11-8-1.
Na tentativa de se obter um melhor resultado, foram executadas as mesmas mudanas
que foram realizadas na ao GETI4. Nestas tentativas, encontrou-se um modelo no qual os
resultados apresentaram melhoras significativas. Foi utilizada a topologia 5-15-10-5-1,
momentum em 0,6 e taxa de aprendizado em 0,2. Teve como MSE de treinamento o valor de
0,00035 e de testes 0,006.
A Figura 44 demonstra o resultado obtido neste perodo. Apesar dos fechamentos finais
estarem distantes, principalmente a partir do dia 35, nota-se uma semelhana entre as duas
linhas, identificando com alto grau de preciso as oscilaes (acertou corretamente 90% as
oscilaes) no perodo estudado.
82
Figura 44. Previso x Fechamento PETR4. Topologia 5-15-10-5.
A Figura 45 demonstra a utilizao do uso de mdia mvel tripla nos trinta primeiros
dias de anlise. O primeiro ponto sinaliza um timo perodo de compra, pois as mdias mveis
de cinco e dez dias esto em tendncia de alta e a de vinte dias fica abaixo delas. No ponto de
venda, as mdias mveis de cinco e dez dias esto em tendncia de queda, fazendo que a de
vinte dias passem por elas, sinalizando um timo perodo de venda. Foi demarcado em circulo,
um perodo ruim para investir nesta ao, pois as mdias mveis mais rpidas esto em queda
forte. Aps isto, conseguiu-se identificar o perodo em que esta queda parou, significando ao
investidor poder voltar em investir nesta ao. Esta anlise de grande importncia para
investidores que focam seus investimentos a curto prazo, pois apesar desta forte queda, o
resultado no ms foi bom, no qual iniciou-se o ms com valor de R$19.66 por ao e fechou
com R$20.88 no fim do ms, um aumento de aproximadamente 6%.
83
Figura 45. Predio Agosto com Mdia Mvel Tripla da ao PETR4.
A Figura 46 demonstra os resultados obtidos no ms de setembro. A previso consegue
identificar corretamente a resistncia e o suporte, porm no consegue demonstrar com tanta
clareza a mesma tendncia. Apesar da curva traada entre o inicio e o fim do ms estar com
uma leve alta, ela no consegue sinalizar uma LTA, e sim uma TL (tendncia lateral). Apesar
de no conseguir identificar, neste perodo obteve 88% de acertos nas oscilaes, um timo
nmero ao investidor que preza suas aes a curto prazo.
84
(a)
(b)
Figura 46. Comparao Dados Rede x Dados Reais: (a) Dados obtidos pela rede neural; (b)
Fechamento PETR4.
Com o resultado desta ao, conclui-se que cada ao possui suas particularidades e
acredita-se que no h uma topologia que possa servir para todas as aes. Porm, com ajustes
na rede, consegue-se obter resultados satisfatrios, auxiliando o investidor na compra e venda
de aes.
85
4 CONCLUSES
O Projeto possui o objetivo de testar a eficcia do uso de RNA na predio de aes
pertencentes Bolsa de Valores. um trabalho que depende da habilidade do projetista, no
qual um modelo inicialmente definido alterado sucessivas vezes. Estas escolhas so
cautelosas, pois uma rede neural com muitos neurnios intermedirios pode ocasionar o
overtraining, reduzindo a exatido da convergncia. No caso de poucos neurnios, pode ocorrer
a gerao de valores errados. Os resultados de cada modelo so analisados para identificar o
modelo da RNA ideal.
Para realizar o projeto, foram pesquisadas aes pertencentes BM&FBOVESPA e
escolhida trs para realizar o trabalho. As aes escolhidas foram a BVMF3, GETI4 e PETR4.
O foco deste trabalho est na predio da BVMF3. A partir da topologia escolhida para
identificar as prximas predies desta ao, foi utilizada a mesma para predizer as outras duas,
verificando se a mesma topologia de rede neural pode ser utilizada para outras aes.
So trs aes que possuem oscilaes constantes, dificultando a previso dos mesmos.
Existem vrios fatores que motivam esta oscilao, como notcias da empresa ou pacotes de
investimento. Qualquer fator pode alterar o interesse do investidor, alterando as oscilaes
imediatamente, dificultando a previso. Fato que aconteceu com a ao GETI4 durante o
perodo estudado, no qual a diminuio de tarifas de energia alterou o comportamento dos
investidores, fazendo que a ao abaixasse em 15,5% em um dia.
O algoritmo utilizado foi o backpropagation with momentum. o principal mtodo de
treinamento de redes MLP e tem resolvido o problema de realizar a propagao reversa dos
erros em RNA. A arquitetura escolhida foi a TLFN focada (focused time-lagged feed-forward
networks). Ela semelhante arquitetura feed-forward, diferenciando-se apenas no atraso de
tempo na camada de entrada, necessrio para os dados entrarem de forma sequencial a rede.
Os dados de entrada da RNA foram o ndice IBOVESPA e ndices tcnicos (inputs) e o
fechamento dirio das aes (output). Para cada dado foi realizado um pr-processamento,
normalizando eles em -1 a 1 e a -0.5 a 0.5, pois a funo de ativao utilizada (tanh) entende
somente a valores de -1 a 1.
86
Foram realizados testes nas duas normalizaes para predio da BVMF3, comparando-
as e verificando se elas influenciam no resultado. Os resultados indicaram que no h grandes
diferenas, somente no primeiro ms a ao -0.5 a 0.5 obteve um comportamento mais
satisfatrio. Aps este perodo, ambas obtiveram resultados semelhantes.
Os resultados obtidos na predio da ao da BVMF3 foram satisfatrios, pois,
principalmente no primeiro ms, ficaram prximos do fechamento real. Depois do primeiro
ms, a diferena foi aumentando, porm os ndices de acerto nas oscilaes continuaram altos.
Uma boa tentativa de aproximar estes fechamentos dirios realizando treinamentos
periodicamente. Quando o MSE dos testes estiver muito alto, necessrio atualizar os dados
do treinamento na tentativa de aproximar este resultado. A anlise feita da ao BVMF3 obteve
um MSE muito elevado a partir do 90 dia, apesar dos bons resultados obtidos nas oscilaes.
Os resultados obtidos na GETI4 no foram satisfatrios. O perodo em que foi analisada
esta ao foi de muitas oscilaes, principalmente no 23 dia da anlise, no qual o preo caiu
mais de 15% (fato descrito nas anlises de risco no TTC I) descrevendo que a rede neural no
tem como prever este tipo de comportamento.
A ao PETR4 obteve resultados satisfatrios, porm modificaes foram necessrias
na quantidade de neurnios da camada intermediaria e o termo momentum. Ao realizar as
previses na mesma topologia utilizada na ao BVMF3, houve uma grande dificuldade em
realizar o treinamento, obtendo resultados elevados no MSE.
Portanto, com os resultados alcanados pode-se dizer que a utilizao de redes neurais
artificiais apresentou-se de forma eficiente para a funo que foi proposta, no qual identificou
com alto grau de preciso as oscilaes, quando no ocorrem interferncias externas. E mesmo
sem estas interferncias, no pode ser considerado como uma garantia de sucesso nos
investimentos, pois se trata de um mercado voltil.
Como trabalhos futuros pode-se indicar a modificao dos dados de entrada da rede,
utilizando por exemplo: cmbio, ndices de bolsa de outros pases, taxa de juros, etc. No caso
de se utilizar o ndice de bolsa de outros pases, pode se citar a importncia do estudo no ndice
Dow Jones, detalhando a influncia que este ndice traz aos preos das aes no Brasil.
87
REFERNCIAS
AES BRASIL. Gerao de Energia. Disponvel em:
< http://www.aesbrasil.com.br/areadenegocios/Paginas/geracaodeenergia.aspx>. Acesso em:
05 out. 2012.
ASSAF NETO, Alexandre. Mercado financeiro. 5. ed. So Paulo: Atlas, 2003.
BARRETO, Jorge. Introduo s Redes Neurais Articiais. Disponvel em:
<http://www.inf.ufsc.br/~barreto/tutoriais/Survey.pdf>. Acesso em: 20 abr. 2012.
BERENSTEIN, Marcelo. Uso de Minerao de Dados na Bolsa de Valores. 2009. 86 f.
Trabalho de concluso de curso (Bacharelado em Cincia da Computao) Cincia da
Computao, Fundao Universidade do Vale do Itaja, Itaja, 2009.
BM&FBOVESPA. Sobre a bolsa. Disponvel em: <http://www.bmfbovespa.com.br/pt-
br/intros/intro-sobre-a-bolsa.aspx?idioma=pt-br>. Acesso em: 3 mar. 2012.
BM&FBOVESPA. Introduo ao mercado de capitais. Disponvel em:
<http://www.bmfbovespa.com.br/pt-br/a-bmfbovespa/download/merccap.pdf>. Acesso em:
10 abr. 2012
BRITO, O. Mercado financeiro: estruturas, produtos, riscos, controle gerencial. So Paulo:
Saraiva, 2005.
CASTRO, Fernando Csar de; CASTRO, Maria Cristina de. Multilayer
perceptrons. Disponvel em:
<http://www.feng.pucrs.br/~decastro/RNA_hp/pdf/RNA_C4.pdf>. Acesso em: 21 abr. 2012
CAVALCANTE, Francisco; MISUMI, Jorge Yoshio. Mercado de capitais. Rio de Janeiro:
Campus, 2002.
CONEXOBR. Direitos conferidos aos acionistas. Disponvel em:
<http://www.conexaobr.com/mercados/mercado_a_vista/348/2/>. Acesso em: 4 abr. 2012.
EXAME. Valor de mercado de empresas listadas cai 10,5% em 2011. Disponvel em:
<http://exame.abril.com.br/mercados/noticias/valor-de-mercado-de-empresas-listadas-cai-10-
5-em-2011>. Acesso em: 11 maio 2012.
FRHLICH, Jochen. Backpropagation net. Disponvel em:
<http://www.nnwj.de/backpropagation-net.html>. Acesso em: 26 jun. 2012.
INFOMONEY. Mercado de capitais. Disponvel em:
<http://www.infomoney.com.br/mercado-de-capitais>. Acesso em: 2 abr. 2012.
INFOMONEY. Mdias mveis: saiba como funcionam e como utilizar este indicador.
Disponvel em: < http://www.infomoney.com.br/mercados/noticia/%20365152>. Acesso em:
24 set. 2012.
88
INICIANTENABOLSA. O que so suportes e resistncias nos grficos das aes da bolsa
de valores. Disponvel em: <http://iniciantenabolsa.com/o-que-sao-suportes-e-resistencias-
nos-graficos-das-acoes-da-bolsa-de-valores>. Acesso em: 28 abr. 2012.
INSIDERNEWS. TUDO SOBRE: Anlise Tcnica x Anlise Fundamentalista. Disponvel
em: <http://www.insidernews.com.br/tudo-sobre/analise-tecnica-x-analise-fundamentalista>.
Acesso em: 28 abr. 2012.
INVESTPEDIA. O que Home Broker? Disponvel em:
<http://www.investpedia.com.br/artigo/O+que+e+Home+Broker.aspx>. Acesso em: 6 abr.
2012.
ISTODINHEIRO. Eltricas perderam R$ 20,7 bilhes em valor de mercado em
setembro, diz Economtica. Disponvel em:
<http://guilhermebarros.istoedinheiro.com.br/2012/09/12/eletricas-perderam-r-207-bilhoes-
em-valor-de-mercado-em-setembro-diz-economatica/>. Acesso em: 20/10/2012
JAVANNS. Java neural network simulator: user manual, version 1.1. Disponvel em:
<http://www.ra.cs.uni-tuebingen.de/software/JavaNNS/manual/JavaNNS-manual.html>.
Acesso em: 1 maio 2012.
GARCIA, Ricardo Basso. Conhecimento sinttico-semntico e processamento de
sentenas em rede neural recorrente simples. 2006. 78 f. Dissertao de Mestrado (Mestre
em Lingustica) - Curso de Lingustica, Universidade Estadual de Campinas, Campinas, 2006.
HAYKIN, Simon. Redes neurais: princpios e prtica. 2.ed. Porto Alegre: Bookman, 2001.
LUDWIG JUNIOR, Oswaldo; MONTGOMERY, Eduard. Redes neurais: fundamentos e
aplicaes com programas em C. Rio de Janeiro: Cincia Moderna, 2007.
MANTOVANI, William Amaro. Utilizao de redes neurais recorrentes na
caracterizao de cargas no lineares em sistemas eltricos.2007. 73 f. Dissertao de
Mestrado (Engenheiro Eltrico) - Curso de Engenharia Eltrica, Universidade Estadual
Paulista, Ilha Solteira, 2011.
MARANGONI, Pedro Henrique. Redes neurais artificiais para previso de sries
temporais no mercado acionrio. 2010. 80 f. Trabalho de Concluso de Curso (Bacharel em
Cincias Econmicas)- Curso de Cincias Econmicas, Universidade Federal de Santa
Catarina, Florianpolis, 2010.
NELOGICA. Suportes e resistncias. Disponvel em:
<http://www.nelogica.com.br/tutoriais/introtec/introtec04.php>. Acesso em: 28 abr. 2012.
OCONNOR, N; MADDEN, M.G; A neural network approach to predicting stock exchange
movements using external factors. Knowledge-Based Systems, Galway, v. 19, n. 5, p.371-
378, set. 2006.
OLIVEIRA, Mauri Aparecido de. Aplicao de redes neurais artificiais na anlise de
sries temporais econmico-financeiras. 2007. 316 f. Dissertao de Mestrado (Doutor em
Administrao) - Curso de Administrao, Universidade de So Paulo, Campinas, 2007.
89
ONDEINVESTIR. Curso anlise fundamentalista: estrutura acionria e valores de mercado.
Disponvel em:
<http://www.ondeinvestirbylopesfilho.com.br/cli/icap/cur/index.asp?modulo=39#sub5>.
Acesso em: 5 abr. 2012.
ORACLE. Creating java neural networks. Disponvel em:
<https://blogs.oracle.com/java/entry/creating_java_neural_networks>. Acesso em: 2 maio
2012.
PAGANOTO, Silvano Fonseca. Implementao de um neuro-controlador preditivo com
otimizao por seo urea aplicado em um processo de neutralizao de pH. 2008. 108
f. Dissertao de Mestrado (Mestrado) - Curso de Engenharia Industrial, Centro Universitrio
do Leste de Minas Gerais, Coronel Fabriciano, 2008.
PETROBRS. Perfil, Uma empresa integrada de energia. Disponvel em:
< http://www.petrobras.com.br/pt/quem-somos/perfil/>. Acesso em: 05 out. 2012.
PORTALDOINVESTIDOR. O que bolsa de valores. Disponvel em:
<http://www.portaldoinvestidor.gov.br/Acad%C3%AAmico/EntendendooMercadodeValores
Mobili%C3%A1rios/Oque%C3%A9BolsadeValores/tabid/92/Default.aspx>. Acesso em: 1
abr. 2012.
RAFENES, A.N; ZAPRANIS, A; FRANCIS; G; Stock Performance Modeling Using
Neural Networks: A Comparative Study With Regression Models. London, England,
1991.
RAO, Valluru. C++ Neural Networks and Fuzzy Logic. 2. ed. New York: Holt, Henry &
Company, Inc., 1995.
REZENDE, Solange Oliveira. Sistemas Inteligentes: fundamentos e aplicaes. Barueri:
Manole, 2005.
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: a modern approach. 3. ed. New
Jersey: Prentice Hall, 2005.
SAMARASINGHE, Sandhya. Neural Networks for Applied Sciences and
Engineering: from fundamentals to complex pattern recognition. New York: Auerbach
Publications, 2007.
SECURATO, Jos Roberto; SECURATO, Jos Cludio. Mercado financeiro: conceitos,
clculo e anlise de investimento. 4. ed. So Paulo: Saint Paul, 2009.
SWINGLER, Kevin. Applyng neural networks: a practical guide. San Francisco: Academic
Press, 1996.
TAFNER, Malcon Anderson. As redes neurais artificiais: aprendizado e plasticidade.
Disponvel em: <http://www.cerebromente.org.br/n05/tecnologia/rna.htm#neuronio>. Acesso
em: 15 abr. 2012.
TECMUNDO; O que so redes neurais? Disponvel em:
<http://www.tecmundo.com.br/programacao/2754-o-que-sao-redes-neurais-.html>. Acesso
em: 15 abr. 2012.
90
TONSIG, S,L. Redes neurais artificiais multicamadas e o algoritmo backpropagation.
Disponvel em:
<http://funk.on.br/esantos/doutorado/INTELIG%CANCIA%20ARTIFICIAL/T%C9CNICAS/
REDES%20NEURAIS/Redes%20Neurais%20Artificiais%20Multicamadas/Backp.PDF>
Acesso em: 10 abr. 2012
VIEIRA, D; Juros sobre capital prprio entenda esta remunerao em dinheiro.
Disponvel em: < http://daltonvieira.com/juros-sobre-capital-proprio Acesso em: 16 abr.
2012.
WIKIPEDIA. Anlise fundamentalista. <2012>. Disponvel em:
<http://pt.wikipedia.org/wiki/An%C3%A1lise_fundamentalista> Acesso em: 28 abr. 2012.
WIKIPEDIA. Bolsa de valores. <2012>. Disponvel em:
<http://pt.wikipedia.org/wiki/Bolsa_de_valores> Acesso em: 15 abr. 2012.
WIKIPEDIA. Matlab. <2012>. Disponvel em: <http://pt.wikipedia.org/wiki/MATLAB>
Acesso em: 1 maio 2012.
91
GLOSSRIO
Ativo Conjunto de bens, crditos, direitos que forma o patrimnio da pessoa
em um determinado momento, avaliado pelos respectivos custos.
Bnus de Subscrio A companhia da preferncia ao acionista em adquirir novas aes
durante uma operao de aumento de capital.
Commercial papers So ttulos de crdito emitidos visando captao pblica de recursos
para o capital de giro de empresas.
Debntures So ttulos que se ajustam perfeitamente s necessidades de captao
das empresas.
Dividendos Parcela do lucro apurado pela companhia que direcionada aos
acionistas quando ocorre o fechamento de um perodo (balano).
Home Broker Sistema oferecido pelas companhias para conectar seus clientes ao
prego eletrnico.
Investimentos Produtivos So investimentos onde aplicado um determinado valor, e um
tempo mais tarde, os lucros obtidos so maiores que o gasto.
Liquidez Refere-se facilidade com que um ativo pode ser convertido em
dinheiro. O grau de agilidade de converso de um investimento sem
perda significativa do seu valor mede a sua liquidez.
92