Documente Academic
Documente Profesional
Documente Cultură
Resumo
Estudos sobre a relevância do conhecimento organizacional têm sido cada vez mais
freqüentes nos últimos anos. A tecnologia passa a ser o ponto fundamental para possibilitar a
conquista da excelência, possuindo como aliados a rede mundial, sistemas de informação e
os computadores. A tecnologia da informação e da comunicação derruba as fronteiras entre
países, criando novas oportunidades de negócio e trazendo, atrelada a si, uma crescente
concorrência. A tecnologia aproxima as pessoas, as comunidades e os países, possibilitando
que informações e conhecimentos possam ser trocados com grande facilidade. A dificuldade
encontrada deve-se ao fato de que o valor não se encontra no domínio da informação, mas
em como trabalhar com o conhecimento a ela relacionado. Este artigo mostra alguns tipos de
aplicações de Sistema Baseado em Conhecimento (SBC), o processo de desenvolvimento de
um SBC apresentando algumas perspectivas futuras e uma aplicação prática de Web Mining.
Palavras-chave: Conhecimento, Data Mining, Inteligência Competitiva.
1.Introdução
No início da década de 90, a idéia de “organização voltada para o aprendizado” foi difundida
por Senge (1990), cuja base teórica é a de que as empresas conquistam suas vantagens
competitivas através de sua capacidade de aprender consigo mesmas e com outras
organizações.
O tipo de conhecimento necessário à solução dos problemas existentes determina quais fontes
de informação, e suas disponibilidades, serão utilizadas pelos indivíduos. Isto significa que
conhecimento pode ser gerado de diversas maneiras, a partir da combinação adequada de
diferentes informações. Assim, uma decisão pode ser tomada por meio da análise lógica
XI SIMPEP - Bauru, SP, Brasil, 08 a 10 de novembro de 2004
(apoiada em dados obtidos de relatórios, entrevistas e outros meios) ou pode estar embasada
em dados heurísticos ou intuitivos (REZENDE, 2003).
Além dessa análise inicial para a definição das principais metas, objetivos e restrições, o
conhecimento sobre o domínio fornece um subsídio para todas as etapas do processo de
Extração de Conhecimento. Esse conhecimento pode ajudar na escolha do melhor conjunto de
dados para se realizar a extração de padrões. Na fase de Extração de Padrões, o conhecimento
sobre o domínio pode ajudar na escolha de um critério de preferência entre modelos gerados,
no ajuste dos parâmetros do processo de indução, ou mesmo na obtenção de um conhecimento
inicial a ser estabelecido como entrada do algoritmo de mineração para aumentar a eficiência
no aprendizado dos conceitos e melhorar a precisão do modelo final. Na última etapa, o
conhecimento adquirido pelos algoritmos de Extração de Padrões deve ser avaliado.
Na segunda fase, Pré-processamento, os dados disponíveis para análise, geralmente não estão
num formato adequado para a Extração de Conhecimento. Diversas transformações nos
dados podem ser realizadas, entre elas:
- Extração e Integração: os dados disponíveis podem se apresentar em diversos formatos,
como arquivo-texto, arquivos no formato de planilhas, Banco de Dados ou Data
Warehouse. Dessa forma, há necessidade de unificação, a qual será aplicada como entrada
para o algoritmo de Extração de Padrões.
- Transformação: após a extração e integração dos dados, algumas transformações podem
ser realizadas aos dados, como: resumo, quando dados sobre vendas são agrupados para
XI SIMPEP - Bauru, SP, Brasil, 08 a 10 de novembro de 2004
utilizarão Bases de Dados distribuídas pela rede. A pesquisa atual de agentes inteligentes
é um começo para atingir os desafios impostos à área de Data Mining pelas novas
tecnologias de www (World Wide Web) e de Base de Dados multimídia (REZENDE,
2003).
Tecnologias de Suporte à
Data Mining
5. Web Mining
Uma Web Mining agrupa em três diferentes abordagens um conjunto de ferramentas que,
além de descobrir as fontes de informações relevantes, pretende mapear e analisar o padrão de
acesso e armazenamento de informações na Web. As três abordagens, mostradas na Figura 2,
têm sido largamente pesquisadas.
Web Mining
Foi utilizado um software que efetua busca conceitual: interpreta as buscas em linguagem
natural, processa as palavras que tem vários significados, busca palavras-chave, avalia a
quantidade de informação em cada palavra-chave, expande a busca por thesaurus e indica o
nível de relevância de cada página (KOSALA & BLOCKEEL, 2000).
Os resultados obtidos pela presente metodologia são muito superiores aos resultados de
buscas exaustivas com os utilitários disponíveis na Web. A informação gerada atende
plenamente às facilidades esperadas pelos usuários. A metodologia usada encontra aplicação
em qualquer atividade de busca de oportunidades de negócios e inteligência competitiva
(SHAKYA, 2002).
XI SIMPEP - Bauru, SP, Brasil, 08 a 10 de novembro de 2004
A World Wide Web é um repositório de dados fracamente acoplados que pode ser usado como
um repositório central apenas se os dados em cada site forem armazenados com alguma
semântica comum.
Entretanto, é possível minerar os dados de diversos sites da Web e introduzir semântica neles.
A atividade de minerar grande coleção de documentos HTML dos Web site fornece
informação rica e vasta. Essa informação, no entanto, é codificada em um formato difícil de
decifrar e extrair.
7. Conclusão
A Internet, sem nenhuma dúvida, revolucionou o conceito de Sistema de Informação. A
explosão de tipos de informações associadas a um assunto como a referência a vídeos, áudios,
fotos, gráficos, dados ou simplesmente textos, dificultam sua obtenção de uma forma
padronizada que possibilite sua utilização. As grandes corporações contam, também com uma
intranet (uma rede interna geograficamente distribuída). Há necessidade, portanto de
algoritmos inteligentes de busca de informações que possam não só filtrar os sites que
aparecem múltiplas vezes, como também determinar o nível de detalhe requerido em cada
pesquisa. Isso sem falar do conhecimento implícito, quase escondido que existe nessa área. A
capacidade dos algoritmos de Mineração de Dados e de Textos em manipular grandes massas
de dados e textos, extraindo informações relevantes a partir de critérios preestabelecidos
sobre o grau de pertinência e importância de um dado agrega considerável valor aos
algoritmos de busca de informação.
8.Referências
DEGROOT, T. (1986) - Probability and Stastistics. Addison Wesley, MA.
FAYYAD, U., G. G. Grinstein, & A. Wierse (2002) - Information Visualization in Data Minin and Knowlwdge
Discovery. Morgan Kaufmann Publishers.
FAYYAD, U., G. Piatetsky-Shapiro, & P. Smith (1996a) - From data mining to knowledge discovery: na
overview. .1-34p.
XI SIMPEP - Bauru, SP, Brasil, 08 a 10 de novembro de 2004
FAYYAD, U., G. Piatetsky-Shapiro, & P. Smith (1996b) - The KDD process for extracting useful knowledge
from volumes of data: Comunications of the ACM. .27-34p.
FAYYAD, U., G. Piatetsky-Shapiro & P. Smith (1996c) - Knowledge Discovery and data mining: Towars a
unifying framework.
KOSALA, R. & H. Blockeel (2000) - Web mining research: A SURVEY. Sigkdd Explorations.
LIU, B., Y. Ma & P. Yu (2000) - Discovering unexpected information from your competitors web site. Em
KDD, San Francisco, 144-153p.
PAZZANI, M. & D. Kibler (1992) - The utility of knowledge in inductive learning. Machine Learning. 9,57-94
p.
REZENDE, Solange, O. (2003) - Sistemas Inteligentes: fundamentos e aplicações. São Paulo: Manole, 525 p.
SHAKYA, S. (2002) - Advanced data mining techniques using Visual Basic 6.0, ASP, XML, MSHRTML and
MSXML. ASP Today.
SENGE, Peter M. (1990) - A Quinta Disciplina: arte, teoria e prática da Organização de Aprendizagem. São
Paulo: Best Seller, 352p.
WEISS, S. M. & N. Indurkhya (1998) - Predictive Data Mining : a Practical Guide. San Francisco, CA.
ZANASI, A. (2000) -Web Mining through the on-line analyst.. Em N. Ebecken & C. Brebbia (eds.), Second
International Conference on Data Mining, England. Computational Machanics Publications.
ZANASI, A. (2001) - Text mining: the new competitive intelligence frontier. Em VSST Conference
Proceedings, Barcelona.
XI SIMPEP - Bauru, SP, Brasil, 08 a 10 de novembro de 2004
Tudo o que o "spider" encontra vai para a segunda parte do sistema de busca, o "index"
(índice). O "index", algumas vezes chamado de catálogo, é como se fosse um livro gigante
contendo uma cópia de todas as páginas web que o "spider" encontra. Se uma página web
muda, então esse livro é atualizado com a nova informação.
Algumas vezes pode demorar para que novas páginas ou alterações que o "spider" encontra
sejam adicionados no "index". Assim, uma página web pode já ter sido visitada (spidered)
mas não indexada ainda. Até que ela seja indexada - adicionada no "index" - ela não está
disponível à pesquisas com os sistema de busca.