Documente Academic
Documente Profesional
Documente Cultură
Autores:
Alberto Xavier Pavim 9813023-4
Jair Coan Júnior 9813012-9
Marcel Gava da Silva 9813017-0
Florianópolis – SC
07 de Março de 2002
Sumário
Sumário ........................................................................................................................................ ii
Lista de Figuras ........................................................................................................................... iv
1 Introdução..............................................................................................................................1
1.1 Sistemas de Visão..........................................................................................................1
1.2 Objetivos ........................................................................................................................1
2 Modelo de um Sistema de Visão ...........................................................................................2
2.1 Sistema Óptico ...............................................................................................................3
2.1.1 Filtros ......................................................................................................................3
2.1.2 Prismas e Espelhos.................................................................................................5
2.1.3 Técnicas de Iluminação...........................................................................................5
2.1.3.1 Direcional (Unilateral ou Bilateral)....................................................................5
2.1.3.2 Direcional Unilateral Perpendicular ao Eixo Óptico .........................................6
2.1.3.3 Anel Luminoso .................................................................................................6
2.1.3.4 Fundo Escuro (Darkfield) .................................................................................7
2.1.3.5 Axial Difusa ......................................................................................................8
2.1.3.6 Frontal Difusa...................................................................................................8
2.1.3.7 Iluminação de Fundo (Backlight)......................................................................9
2.1.3.8 Iluminação Linear (Structured ou Line Generating) .......................................10
2.1.3.9 Dia Nublado (Cloudy Day) .............................................................................10
2.1.3.10 Polarizada ......................................................................................................11
2.2 Câmera.........................................................................................................................12
2.2.1 Introdução às Câmeras .........................................................................................12
2.2.2 Princípio de Funcionamento..................................................................................12
2.2.3 Anatomia da Câmera ............................................................................................12
2.2.3.1 Sensores Charged Coupled Devices .............................................................12
2.2.3.2 Sensores CMOS ............................................................................................13
2.2.4 Sensores de Varredura Linear - Line-Scan...........................................................13
2.2.5 Técnicas de Varredura da Imagem .......................................................................13
2.2.5.1 Varredura por Entrelaçamento – Interlaced ...................................................13
2.2.5.2 Varredura Progressiva de Imagens – Progressive Scanning.........................15
2.2.5.3 Varredura Linear (Line Scan).........................................................................15
2.2.6 Sensores de Imagens Coloridas ...........................................................................15
2.2.6.1 Sensores com 3 Chips ...................................................................................16
2.2.6.2 Sensores com Único Chip – Esquema Mosaico ............................................17
2.2.6.3 Filtragem de Cores.........................................................................................17
2.2.6.4 Câmeras Coloridas ou em Tons de Cinza? ...................................................17
2.2.7 Tipos de Câmeras .................................................................................................18
2.2.7.1 Câmeras Analógicas ......................................................................................18
2.2.7.2 Câmeras Digitais............................................................................................19
2.2.7.3 Câmeras Inteligentes .....................................................................................19
2.2.7.4 WebCam ou PC-Cam ....................................................................................20
2.2.7.5 Câmeras Sem Fio (Wireless) .........................................................................21
2.2.7.6 Câmeras Especiais ........................................................................................22
2.3 Transmissão de Dados.................................................................................................23
2.3.1 Sinais Analógicos ..................................................................................................23
2.3.1.1 Padrões de Vídeo Comumente Empregados ................................................24
2.3.1.2 Cabos e Conectores ......................................................................................24
2.3.2 Sinais Digitais........................................................................................................25
2.3.2.1 Tipos de Sinais de Transferência de Dados ..................................................26
2.3.2.2 Protocolos Digitais de Comunicação .............................................................26
2.4 Sistema Processador ...................................................................................................29
2.4.1 Hardware...............................................................................................................29
2.4.1.1 Framegrabbers...............................................................................................29
2.4.1.1.1 Principais Características ...........................................................................29
2.4.1.1.1.1 Considerações sobre os formatos de entrada de vídeo ......................30
ii
2.4.1.1.1.1.1 Framegrabbers compatíveis com entradas analógicas de vídeo ..30
2.4.1.1.1.1.2 Framegrabbers compatíveis com entradas digitais de vídeo ........30
2.4.1.1.1.2 Taxa de Aquisição (“Frame Rate”).......................................................30
2.4.1.1.1.3 Barramento Utilizado ...........................................................................31
2.4.1.1.1.4 Alocação de Memória ..........................................................................31
2.4.1.1.1.5 Digitalização da Imagem......................................................................31
2.4.1.1.1.6 Processamento “On Board” em Aplicações Pesadas ..........................31
2.4.1.1.1.7 Interface com a Câmera ......................................................................32
2.4.1.1.1.8 Software...............................................................................................32
2.4.1.1.1.9 Outras considerações ..........................................................................33
2.4.1.2 E/S e Dispositivos de Atuação .......................................................................33
2.4.2 Software ................................................................................................................34
2.4.2.1 Bibliotecas de Aquisição de Imagens ............................................................35
2.4.2.1.1 As Bibliotecas TWAIN E WIA .....................................................................36
2.4.2.2 Bibliotecas de Processamento de Imagens ...................................................39
2.4.2.2.1 Imagem e ROI ............................................................................................39
2.4.2.2.2 Operações Básicas ....................................................................................40
2.4.2.2.3 Transformações Geométricas ....................................................................41
2.4.2.2.4 Threshold....................................................................................................42
2.4.2.2.5 Filtros (Convoluções)..................................................................................42
2.4.2.2.6 Operadores Morfológicos ...........................................................................43
2.4.2.2.7 Detecção de Formas Geométricas Básicas ...............................................44
2.4.2.2.7.1 Interpolação Linear ..............................................................................44
2.4.2.2.7.2 Transformada de Hough ......................................................................44
2.4.2.2.8 Segmentação .............................................................................................45
2.4.2.2.9 Contornos ...................................................................................................45
3 Aplicações ...........................................................................................................................46
3.1 Aplicações em Controle de Qualidade .........................................................................48
3.2 Aplicações em Rastreabilidade ....................................................................................50
3.2.1 Introdução à Rastreabilidade ................................................................................50
3.2.2 Histórico das Tecnologias Unidimensionais..........................................................50
3.2.3 Tecnologias 1-D ....................................................................................................51
3.2.4 Novas Técnicas de Marcação – Tecnologias 2-D.................................................54
3.2.4.1 Códigos de Pilhas (Stacked Codes) ..............................................................54
3.2.4.2 Códigos Matriciais..........................................................................................55
3.2.4.3 Códigos Compostos.......................................................................................57
3.2.5 Métodos de Marcação...........................................................................................58
3.2.5.1 Impressão a Laser .........................................................................................58
3.2.5.1.1 Laser com Tambor .....................................................................................58
3.2.5.1.2 Laser Direto ................................................................................................58
3.2.5.1.3 Laser Shot Peening ....................................................................................59
3.2.5.2 Impressão InkJet............................................................................................59
3.2.5.3 Impressão Tipográfica (Puncionamento) .......................................................59
3.2.5.4 Impressão Térmica ........................................................................................60
3.2.5.4.1 Transferência Térmica Direta .....................................................................60
3.2.5.4.2 Transferência Térmica Através de Substrato .............................................60
3.2.5.5 Outros Métodos..............................................................................................60
3.2.6 Métodos de Leitura ...............................................................................................61
3.2.6.1 Leitura com CCD............................................................................................61
3.2.6.2 Leitura com Scanners ....................................................................................63
4 Conclusões..........................................................................................................................64
5 Referências Bibliográficas ...................................................................................................65
iii
Lista de Figuras
Figura 2.1 – Arquitetura de um Sistema de Visão ........................................................................2
Figura 2.2 - a) Imagem. b) Escala de Tons de Cinza. c) Imagem
Digitalizada. ...........................................................................................................................3
Figura 2.3 - Exemplo de Filtros Ópticos.......................................................................................4
Figura 2.4 - Ilustração do Espectro Freqüencial da Luz. ..............................................................4
Figura 2.5 - Exemplo de uma Aplicação Utilizando o Filtro Verde................................................4
Figura 2.6 - Exemplo da Aplicação de Prismas para Desviar Feixes Luminosos.........................5
Figura 2.7 - Iluminação Direcional. ...............................................................................................6
Figura 2.8 - Iluminação Direcional Unilateral Perpendicular ao Eixo Óptico . ..............................6
Figura 2.9 - Iluminação em Anel . .................................................................................................7
Figura 2.10 - Iluminação de Fundo-Escuro (ou Darkfield). ...........................................................7
Figura 2.11 - a) Exemplo com Anel Luminoso. b) Exemplo com Fundo-Escuro (Darkfield).........8
Figura 2.12 - Iluminação Axial Difusa. .........................................................................................8
Figura 2.13 - Iluminação Frontal Difusa........................................................................................9
Figura 2.14 - Iluminação de Fundo (Backlight) . ...........................................................................9
Figura 2.15 - Iluminação Linear. .................................................................................................10
Figura 2.16 - Iluminação Dia Nublado (Cloudy Day). .................................................................11
Figura 2.17 - Iluminação Polarizada . .........................................................................................11
Figura 2.18- Varredura por Entrelaçamento. ..............................................................................14
Figura 2.19 – Espectro Visível. ...................................................................................................16
Figura 2.20 – Sensores com 3 chips. .........................................................................................16
Figura 2.21 – Câmeras Analógicas Monocromáticas e Coloridas ..............................................18
Figura 2.22 – Câmeras Digitais ..................................................................................................19
Figura 2.23 – Câmeras Inteligentes............................................................................................19
Figura 2.24 – WebCams. ............................................................................................................20
Figura 2.25 – Câmeras sem fio...................................................................................................21
Figura 2.26 – Sinais Analógicos. ................................................................................................23
Figura 2.27 – Conectores para sinais analógicos.......................................................................25
Figura 2.28 – Sinais Digitais. ......................................................................................................25
Figura 2.29 - Função do FrameGrabber . ...................................................................................29
Figura 2.30 – Modelagem da estrutura do software de um Sistema de Visão. ..........................34
Figura 2.31 – Módulo de aquisição de imagens e sua interface.................................................35
Figura 2.32 – Modelagem UML de um módulo de aquisição. ....................................................36
Figura 2.33 – Elementos da Interface TWAIN ............................................................................37
Figura 2.34 – Arquitetura em Camadas da Interface TWAIN .....................................................37
Figura 2.35 – Diagrama de Estados do Funcionamento da Interface TWAIN ............................38
Figura 2.36 – Exemplo de uma ROI Sobre Outra ROI. ..............................................................40
Figura 2.37 – Exemplo de Translação e Rotação de uma Imagem............................................41
Figura 2.38 – Exemplo de uma Imagem após a Operação de Threshold. .................................42
Figura 2.39 – Exemplos de Aplicações de Filtragem..................................................................43
Figura 2.40 – Os Elementos Estruturantes Padrão N4 e N8, Respectivamente. .......................43
Figura 2.41 – Exemplo de Aplicações de Morfologia..................................................................44
Figura 2.42 – Exemplo da Transformada Hough........................................................................44
Figura 2.43 – Exemplo de Aplicação de Segmentação em uma Imagem de uma Madeira. ......45
Figura 2.44 – Exemplos de Análise de Contornos......................................................................45
Figura 3.1 – Aplicação de controle de qualidade em equipamento eletrônico – interface DB25.
.............................................................................................................................................46
Figura 3.2 – Marcação em placa de circuito impresso. ..............................................................46
Figura 3.3 – Suporte de câmeras de monitoramento de ambientes externos. ...........................47
Figura 3.4 – Dispositivos de visão domésticos e de escritório. ..................................................47
Figura 3.5 – Embalagem de produto alimentício com iluminação específica para ressaltar a data
de validade e o lacre de segurança.....................................................................................49
Figura 3.6 – Análise da imagem – aprovação do lacre e reprovação da data de validade
(danificada)..........................................................................................................................49
Figura 3.7 – Estrutura do código de barras ................................................................................51
iv
Figura 3.8 – Escaneamento do código de barras .......................................................................52
Figura 3.9 – Resolução dos códigos de barras ..........................................................................52
Figura 3.10 – Tipos de códigos de barras ..................................................................................53
Figura 3.11 – Códigos de Pilhas.................................................................................................55
Figura 3.12 – Códigos 2D ...........................................................................................................56
Figura 3.13 – Codificação Data Matrix........................................................................................57
Figura 3.14 – Exemplos de aplicações com codificação Data Matrix.........................................57
Figura 3.15 – Tipos de Marcações. ............................................................................................61
Figura 3.16 – Leitura a partir de câmeras CCD. .........................................................................62
Figura 3.17 – Solução pr;atica para a leitura de códigos Data Matrix. .......................................63
v
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
1 Introdução
Produtos e serviços são diariamente absorvidos por um mercado consumidor cada vez
maior e mais exigente. A busca por excelência em qualidade de produtos vendidos e serviços
prestados levou principalmente o setor industrial a investir em uma tecnologia de processo que
garanta 100% (ou quase 100%) da qualidade de seus produtos/serviços. A tecnologia de Visão
Computacional não é relativamente nova, mas teve um grande desenvolvimento e maior
aplicação nas últimas décadas, após a criação e crescimento de órgãos especializados no
controle de qualidade, que atuam de forma a cobrar um padrão mínimo de qualidade dos
produtos/serviços que entram no mercado diariamente.
Foi neste cenário que verdadeiros Sistemas de Visão foram criados e tiveram uma
ascensão rápida, muito devido ao desenvolvimento da capacidade computacional e da
eletrônica.
Outras aplicações podem ser citadas e muitas outras estão por ser inventadas devido a
grande flexibilidade oferecida pelos Sistemas de Visão.
1.2 Objetivos
Este relatório tem por objetivo apresentar um pouco sobre a estrutura que compõe um
Sistema de Visão, mostrando como estas diversas partes se somam e agregam informações
importantes para possibilitar o funcionamento do sistema como um todo.
Em seguida serão apresentadas duas aplicações existentes destes sistemas:
• Aplicação no controle de qualidade aplicado a indústria alimentícia –
“Verificação de Datas de Validade, Números de Lote e Lacre de Validade”;
• Aplicação em rastreabilidade de produtos – códigos de barras e em especial o
Data Matrix.
Por fim, expomos nossa conclusão sobre a viabilidade de utilização da tecnologia de
Sistemas de Visão atualmente.
1
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.1.1 Filtros
Os filtros são comumente utilizados para selecionar a freqüência luminosa que incide
sobre o sensor da câmera. A luz pode ser definida como sendo uma onda com uma
determinada freqüência. A freqüência da onda determina a cor que ela representa. Se um raio
luminoso contiver mais que uma freqüência, a cor resultante será a soma das cores básicas
presentes na imagem. O olho humano consegue distinguir ondas luminosas dentro do espectro
1
Defini-se Imagem Eletrônica como uma imagem representada por um sinal elétrico analógico.
3
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
com freqüências de 400 a 750 nm. As câmeras possuem uma sensibilidade à luz diferente do
olho humano, por isso pode-se, em alguns casos, capturar informações da cena com câmeras
que não são perceptíveis a “olho nu”. Existem câmeras especiais desenvolvidas para serem
sensibilizadas por determinadas freqüências, como câmeras sensíveis a luzes infravermelhas
ou a luzes ultravioletas.
Quando se deseja impedir que uma determinada luz sensibilize o sensor, ou melhor,
permitir que apenas uma determinada freqüência sensibilize o sensor, emprega-se um filtro
compatível com a freqüência luminosa. A Fig. 2.5 mostra um exemplo de aplicação. Neste
caso, deseja-se ressaltar os comprimidos azuis dos comprimidos vermelhos. Usando uma
câmera monocromática, o contraste entre as duas cores é mínimo, inviabilizando a aplicação.
Entretanto, adicionando-se um filtro verde obtém-se quase 100% de contraste, viabilizando a
aplicação.
4
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Uma dificuldade comum nos Sistemas de Visão ocorre quando se deseja analisar
simultaneamente aspectos que se localizam em diferentes ângulos do produto, tornando
necessário a utilização de mais de uma câmera ou de uma ferramenta manipuladora de
trajetória. Para esse problema a ferramenta mais barata é o espelho. Essa ferramenta pode
também ser usada para mudar a trajetória da luz quando não se pode colocar a câmera de
frente para o objeto (desvio do feixe de luz em um determinado ângulo). Na maioria das
aplicações com espelhos, pode-se substituí-los por prismas, mas seu custo é bem mais
elevado.
Outro tipo de problema é quando se necessita, devido a um requisito de técnicas de
iluminação, que a luz incidente no objeto e a refletida venham da mesma direção. Para tal é
necessário a utilização de um prisma. Os prismas são aplicados em sistema de visão para
desviar um feixe de luz ou separar as componentes da luz. Tanto os espelhos quanto os
prismas são comumente empregados em aplicações onde se deseja visualizar duas áreas
distintas de uma cena com uma única câmera.
1
Defini-se Campo de Visão como a área do objeto (ou da cena) visualizada pela câmera.
5
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
O Anel Luminoso é formado por uma fonte luminosa no formato de anel, fixada junto à
lente da câmera. Esta estratégia fornece uma iluminação forte, barata e com direção paralela
ao eixo óptico.
6
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
• Vantagens: forte e constante, paralela ao eixo óptico, reduz sombras, fácil instalação.
• Desvantagens: pode formar um círculo mais iluminado em superfícies reflexivas,
iluminando mal no centro e intensivamente nas extremidades.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica.
7
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Figura 2.11 - a) Exemplo com Anel Luminoso. b) Exemplo com Fundo-Escuro (Darkfield).
• Vantagens: iluminação uniforme para superfícies planas, sem sombras, compacta, forma
imagens com grande qualidade e repetibilidade.
• Desvantagens: pouca intensidade luminosa incidente no objeto, devido ao difusor e não
distingue características em alto relevo na imagem.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica com difusores.
óptico. Então, estes raios são refletidos na direção do sensor da câmera. A grande diferença é
a não utilização do elemento difusor, o que aumenta a intensidade luminosa da imagem. As
aplicações são similares ao caso anterior.
a) Ilustração. b) Exemplo.
Figura 2.13 - Iluminação Frontal Difusa.
9
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Um conjunto de LEDs é agrupado linearmente, formando uma fonte que produz uma
linha iluminada sobre o objeto. Através da movimentação desta linha ou do objeto, pode-se
analisar as características da forma do objeto em alto relevo.
A técnica de iluminação Dia Nublado (Cloudy Day) é assim denominada pois esta imita
o comportamento da atmosfera em um dia nublado, ou seja, uma iluminação uniformemente
distribuída em todas as direções que incidem sobre o objeto. Este comportamento é obtido
através da projeção da luz em uma cúpula semi-esférica, que, por sua vez, distribui a luz em
várias direções. A luz é emitida da base da cúpula contra a sua parede e outra pequena parte
advém de uma fonte superior, do tipo axial difusa, para evitar que o centro do objeto possua
uma atenuação na iluminação devido ao espaço necessário para colocar a câmera.
10
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Esta iluminação é muito importante para superfícies complexas (não planas), devido às
diferentes direções com que os feixes luminosos atingem o objeto. Esta é, também, muito
utilizada em superfícies muito reflexivas e como uma fonte difusa extremamente eficiente.
• Vantagens: iluminação difusa e uniforme, para objetos com formas complexas e reflexivas.
• Desvantagens: custo alto e difícil instalação (espaço de trabalho reduzido).
• Fonte de Iluminação: LED’s, fibra óptica e lâmpadas fluorescentes.
2.1.3.10 Polarizada
11
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.2 Câmera
Este trabalho enfoca dois tipos de câmeras disponíveis atualmente: CCD (Charged
Coupled Device) e CMOS (Complementary Metal Oxide Semiconductor). Estas câmeras são
caracterizadas por utilizarem sensores sensíveis a luz com condutores de estado sólido. Estes
sensores são tipicamente construídos no formato retangular (imagens) ou na forma de uma
linha única (line scan) com sensores discretos eqüidistantes, chamados de foto-células (photos-
sites). Estas foto-células operam como conversores opto-eletrônicos, recebendo luminosidade
por um período de tempo e gerando uma carga elétrica proporcional a intensidade de luz e ao
tempo de exposição.
12
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Sensores Line-Scan adquirem imagens de uma dimensão, i.e. uma linha única de pixels,
podendo empregar tanto a tecnologia CCD como a tecnologia CMOS. Esta característica faz
com que estes sensores sejam muito úteis para inspeções em linhas de produção com objetos
cilíndricos ou arredondados, podendo-se obter imagens planas destes objetos. Outra aplicação
importante é em linhas de produção em movimento, onde imagens com dimensões maiores da
usuais podem ser formadas com esta tecnologia. Os sensores são muito simples e velozes, e
quando empregados apropriadamente, podem ser eficientes em inspeções requerendo alta
exatidão.
Quando as televisões foram criadas a uns 50 anos atrás, percebia-se que muitas
pessoas possuíam problemas para visualizarem imagens em movimento, denominado de
flicker, com taxas de atualização de até 30 imagens por segundo. Para minimizar este efeito, a
indústria de televisão criou a tecnologia entrelaçada (interlaced), que entrelaçava duas imagens
sucessivas lidas de uma câmera padrão. O método de entrelaçamento era muito simples e
ainda é empregado atualmente em televisões e monitores de computadores.
• Ler/mostrar todas a linhas pares (definido como campo par, metade da imagem);
• Reiniciar;
• Ler/mostrar todas a linhas ímpares (definido como campo ímpar, metade da
imagem);
• Unir o campo ímpar com o par, formando uma única imagem com o tamanho total;
13
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Neste sistema, a imagem é subdivida em dois campos, o campo par contendo todas a
linhas de índice par e o campo ímpar contendo todas a linhas de índice ímpar. O número de
linhas em um campo (par ou ímpar) é metade do número de linhas da imagem. Então, a cada
varredura atualiza-se um dos campos com uma taxa de 60 quadros/segundo, ou seja, em uma
varredura atualiza-se o campo ímpar e na seguinte o campo par, e assim sucessivamente. Esta
taxa de atualização não é perceptível ao olho humano. Câmeras que geram um sinal de vídeo
do tipo entrelaçado, são denominadas normalmente de câmeras de varredura por área (area
scan cameras).
Com o estabelecimento deste padrão, os fabricantes de câmeras projetaram esta
técnica de entrelaçamento 2:1 para as sua câmeras, assim as câmeras podiam se acopladas
diretamente a televisores e monitores. Duas variações simples desta técnica foi também
implementadas em algumas câmeras:
• Integração de Imagens: neste modo, somente o campo par ou o ímpar é
repetidamente lido do sensor da câmera, enquanto que o outro campo é descartado.
Isto resulta em uma imagem que contém somente as linhas pares ou ímpares do sensor
da câmera.
• Integração de Campo: neste modo, pares de linhas consecutivas são lidos do sensor
da câmera simultaneamente, usando-se todas as linhas do sensor da câmera para uma
única aquisição. Por exemplo, as linhas 1 e 2 seriam combinadas e lidas como a linha 1,
enquanto que as linhas 2 e 3 seriam combinadas e sendo lida como a linha 2, e assim
sucessivamente até que todo o sensor da câmera seja lido, formando uma única
imagem.
Através desta descrição, fica claro que a técnica de entrelaçamento requer uma quantia
finita de tempo para produzir a imagem final com tamanho completo. Além disso, se algum
movimento ocorre na cena entre os tempos de varredura par e ímpar, a imagem final aparecerá
borrada. Para evitar este efeitos foram criadas novas tecnologias de varreduras que empregam
a técnica de varredura progressiva.
14
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
A varredura linear é implementada por sensores lineares (line scan sensors), que
adquirem uma linha horizontal da imagem por vez. O computador, através da placa de
aquisição, agrupa estas “linhas” de acordo com o seu buffer de memória, construindo a imagem
inteira. Esta imagem pode possuir uma altura (tamanho) variável dependendo do tamanho de
buffer empregado. Uma variação deste modo é denominada de aquisição com altura da
imagem variável (VHA – variable height acquisition). Neste modo, a câmera fica enviando
linhas para formar imagem enquanto que um sinal de comando estiver ativo. Quando este sinal
é desativado, a câmera para de adquirir e enviar estas linhas, e o computador possuirá a
imagem completa. Freqüentemente, emprega-se um sensor de disparo (trigger) para notificar a
chegada do objeto e o início da varredura por linhas, confeccionando uma nova imagem. No
modo de altura da imagem variável (VHA), um segundo sensor de disparo pode ser empregado
para detectar o fim do objeto e finalizar a confecção da imagem. Isto é extremamente
importante em aquisição de imagens de objetos com comprimento variável ou desconhecido.
15
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Em uma arquitetura com 3 chips, a luz que incide na câmera é primeiramente dividida
em três feixes e cada um destes feixes é focado em um sensor diferente, cada sensor possui
uma lamina de filtro de cor para permitir a sensibilização por uma faixa do espectro de cor.
Cada um dos sensores, mede a intensidade da luz em um dos espectros das cores básicas,
16
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
desta forma pode-se reproduzir a cor daquele ponto conhecendo-se a intensidade das cores
básicas. Este método é muito popular, porque as características da função de resposta
espectral dos filtros de cores podem ser projetados para simular as dos olhos humanos,
permitindo que as câmeras possam visualizar as cores como os seres humanos fazem. Os
benefícios deste projeto incluem o processamento de sinais simplificado, alta precisão na
reprodução e controle das cores, e alta resolução. Entretanto, câmeras que empregam esta
tecnologia tendem a ser caras e possuírem grandes dimensões, devido a eletrônica associada
com os três sensores. Entretanto, a grande desvantagem está na baixa sensibilidade a luz
fraca devido a baixa intensidade de cada um dos feixes resultado da divisão do feixe luminoso
primário.
Em uma arquitetura com um único chip, uma matriz de filtro de cores (DFA), selecionada
cuidadosamente, é colocada diretamente na parte sensível a luz de uma sensor de câmera.
Circuitos eletrônicos e algoritmos de interpolação mais complicados são aplicados neste
projeto, entretanto estas câmeras são tipicamente muito menores, menos caras e possuem um
sensibilidade maior a luz fraca que a arquitetura com 3 chips. As maiores desvantagens estão
na baixa resolução e na pouca precisão no controle e na reprodução das cores.
Quando uma câmera é escolhida para uma aplicação industrial, muitos integradores
instintivamente selecionam uma câmera colorida por que eles acham que as câmeras em tons
de cinza possuem qualidade inferior. O que está, entretanto, incorreto. Câmeras
monocromáticas possuem uma resolução superior, são menos susceptíveis a ruídos
eletromagnéticos, possuem uma sensibilidade à luz maior, e maiores contrastes que câmeras
coloridas na mesma faixa de preço. Embora que as imagens coloridas sejam preferidas, os
olhos humanos podem perceber diferenças espaciais de forma mais clara em imagens em tons
de cinza, enquanto que as imagens coloridas requerem maior tempo de processamento e não
necessariamente possuem mais informações sobre o objeto.
Quando uma imagem colorida de alta resolução é necessária, é melhor utilizar câmeras
coloridas com 3 chips (também denominadas Câmeras 3-CCD ou RBG). Através da utilização
de 3 sensores CCD, estas câmeras oferecem a melhor solução dos que as câmeras coloridas
de 1 chip em todos as características (exceto preço): possuindo uma alta resolução espacial e
resposta dinâmica. A imagem é direcionada para cada sensor, utilizando-se prismas, e então é
filtrada para separar as cores básicas, azul, verde, vermelho.
17
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
As câmeras analógicas são câmeras que utilizam sensores de imagem do tipo CCD ou
CMOS gerando como saída um sinal de vídeo analógico, que transmite a imagem da câmera
para o computador ou monitor. Podem ser tanto coloridas como em tons de cinza. Além das
suas características próprias, o sinal de vídeo analógico é um grande limitador da sua
capacidade, impedindo que altas taxas de transmissão sejam alcançadas e sendo susceptível
a ruídos eletromagnéticos. Além disso, o sinal de vídeo também limita a resolução e dimensão
das imagens transmitidas. Câmeras analógicas possuem sistema de varredura tanto
entrelaçado como progressivo, gerando sinais de vídeo compatível com estes padrões.
As grandes vantagens das câmeras analógicas são o tamanho reduzido, a tecnologia já
estar segmentada e dominada, aliado ao baixo custo. Em aplicações onde a velocidade de
captura não é muito alta (até 20 quadros/segundo), onde resoluções em tons de cinza de 256
bits em um campo de visão de 480x600 atenda as especificações, estas câmeras são
recomendadas. Entretanto, devemos lembrar do fato que estas câmeras requerem uma placa
de aquisição para a digitalização das imagens.
18
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Logo após o surgimento das câmeras digitais, os fabricantes começaram a filosofar por
que não adicionar um microprocessador a câmera e realizar parte ou todo o processamento da
imagem já na câmera. Foi então que criou-se as primeiras câmeras inteligentes ou Smart-Cam.
Estas câmeras possuem um processador embutido, fazendo com que além de já
digitalizar as imagens, elas conseguem também processar as imagens e transmitir parte delas
ou somente o resultado para o computador, diminuindo assim a taxa de transmissão
necessária para enviar a imagem inteira. Imagine que estamos trabalhando com uma aplicação
muito complexa, onde uma câmera com um sensor 2000x2000 pixels e com uma resolução de
14 bits por pixel é requerida. Além disso, faz-se necessário o processamento de 40 imagens
19
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
por segundo, isto nos levaria a uma transmissão de 280 Mbytes por segundo (2000 x 2000 x 14
x 40 / 8), o que dificilmente poderia ser realizado por uma câmera digital normal. Desta forma, a
Smart-Cam seria a sua única opção de viabilizar esta aplicação.
Mas está não é a única vantagem. Usando Smart-Cam diminuímos a utilização da CPU
do computador, pois parte ou todo o processamento da imagem será feito na própria câmera,
sobrando mais tempo para o computador efetuar outros cálculos ou gerenciar até outras
câmeras/dispositivos. Outra grande vantagem é a modularização do sistema, onde a Smart-
Cam pode esta ligada por portas de I/O na própria câmera com o sensor de Trigger e o sistema
de iluminação, interagindo com estes dispositivos sem a interferência do computador, que
receberá apenas o resultado do processamento. Estas câmeras podem ainda utilizar conexões
de rede, como Ethernet ou Fieldbus, para comunicar com o computador, podendo estar
localizadas a quilômetros do computador que as gerencia. Desta forma, a Smart-Cam pode até
dispensar o uso de computadores em alguns casos, diminuindo o custo do sistema de visão,
juntamente com a sua dimensão.
A performance destas câmeras esta diretamente relacionada com a performance do
sensor empregado (como as demais câmeras) e a performance do processador adotado. Com
a evolução constante da tecnologia de processadores, hoje já está disponível no mercado
câmeras com processadores Pentium de até 300Mhz embarcados. A sua programação pode
ser totalmente feita em Ansi C++ e enviada para a câmera através do protocolo FTP do
TCP/IP, pois esta câmera utiliza uma conexão Ethernet com o PC. Desta forma, fica totalmente
transparente a sua programação e algoritmos de processamento de imagens já utilizados no
computador, podem ser facilmente implementados nestas câmeras. Com certeza, esta é uma
evolução sem retorno, entretanto, o alto custo destes sistemas ainda implicam que o bom
senso e uma especificação bem feita, são pontos cruciais na escolha da câmera mais
adequada.
20
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
de (US$ 100,00). Esta câmeras possuem uma alta taxa de captura de até 15 imagens por
segundo (com 640x480) ou até 30 imagens por segundo (com 320x240). Possuem um amplo
ajuste de foco e zoom, dispensando em vários casos o uso de lentes extra e dispensa também
a necessidade de placas framegrabbers. Possuem um tamanho e peso também reduzido e
vários aplicativos disponíveis na internet para testar e aplicar estes dispositivos.
Por não ser um produto desenvolvido para aplicações industriais, requer uma análise
maior em relação ao tempo de vida útil e a robustez do sistema. Por possuir um sistema óptico
próprio, dificulta o emprego de lentes especiais, necessárias em algumas aplicações.
O desenvolvimento do software requer também um tempo maior, haja visto que a
interface com a câmera será realizada através da biblioteca API do Windows, com
documentação ruim nas ferramentas comuns de desenvolvimento. A grande vantagem é que
uma vez construída esta interface, podemos aplicar qualquer tipo de WebCam que o sistema
funcionará, conseguindo assim uma independência em relação ao hardware e permitindo um
futuro up-grade facilitado do sistema.
Algumas WebCam entretanto utilizam placas de aquisição e operam no modo analógico.
Entretanto, estas câmeras estão em extinção pois não conseguem competir em performance e
nem em preço com as WebCam atuais que são digitais, coloridas e não requerem placas de
aquisição.
Existem ainda câmeras com outras facilidades, como microfone embutido com placa
digitalizadora de som, útil para aplicações de vídeo conferência e segurança. Outras WebCam
podem ser retiradas do PC e utilizadas como máquinas fotográficas digitais com pilhas e depois
religada ao computador.
Resumidamente, a tecnologia das WebCam esta crescendo exponencialmente,
tornando competitivas para o mercado de sistemas de visão, entretanto o seu enfoque ainda é
para o usuário de computador e vídeo conferência, portanto a assistência técnica ainda opera
de forma precária. Analisando-se com cuidado os requisitos da aplicação, pode-se optar por
esta tecnologia, que com certeza reduzirá consideravelmente o custo final dos sistemas de
visão.
Hoje em dia, já podemos obter soluções wireless conectando uma WebCam normal a
um Palmtop, e utilizando uma transmissão por rádio para comunicar com o computador. É
claro, neste caso, que o Palm Top precisa realizar um parte do processamento de imagem,
21
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
atuando como o processador das Smart-Cam, pois senão seria inviável transmitir a imagem
completa por rádio.
Prevê-se para um futuro bem próximo, que a tecnologia das Smart-Cam irão avançar
tanto, que logo teremos uma conexão por sinal de rádio ou por celular, através da WAP
(Wireless Application Protocol), permitindo que as Smart-Cam não precisem mais de um cabo
ligando elas aos computadores. Desta forma, poderemos projetar sistemas de visão muito
menores, com alta capacidade de processamento e modulares, onde os computadores PC
serão dispensados ou atuaram como gerentes controlando linhas com vários sistemas de visão
e outros dispositivos de automação.
Além destas câmeras com sensores de imagem normais, existem outras câmeras
consideradas especiais, pois foram desenvolvidas para aplicações específicas. Abstraindo o
conceito de câmera, pode-se considerar que uma câmera é um sistema que consegue extrair
determinadas informações de uma área de interesse e armazená-las na forma de uma matriz
n-dimensional, representando as informações daquela área em um determinado instante.
Assim sendo, podemos considerar que câmeras não servem somente para obter uma imagem
de uma área de interesse, mas pode também armazenar outras informações como a
distribuição de calor naquela área, ou a profundidade da superfície em análise. Claro, que para
estas aplicações especiais, requer-se procedimentos especiais, bem como sensores
adequados.
Existem câmeras para adquirir imagens de raio-x ou empregadas em tomografia
computadorizada. Pode-se aplicar sonares ou lasers para realizar a varredura de uma área e
gerar uma imagem com informações de alto relevo, contendo a profundidade da área sob
análise.
Câmeras especiais geralmente modificam a forma como o sensor de imagem funciona,
ou seja, o princípio de funcionamento das fotos células, e utilizam toda a arquitetura prontas
das câmeras para digitalizar e transmitir as informações capturadas pelos novos sensores.
Desta forma, elas possuem a forma das câmeras tradicionais e utilizam os mesmos sinais de
vídeo e placas de aquisição, com a diferença de estarem transmitindo outro tipos de
informações. Cabe ao desenvolvedor de software, criar as ferramentas e algoritmos
necessários para extrair as informações desejadas, para depois atuar sobre o sistema,
monitorando-o ou controlando-o.
22
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Pode-se considerar que uma imagem é, na verdade, uma matriz, onde cada elemento
possui um valor de intensidade de cinza ou um valor de cor. A fim de compreender o processo
de transmissão de imagens das câmeras para os computadores, faz-se de suma importância o
entendimento de como são os sinais eletrônicos, analógicos e digitais, que enviam estas
imagens. Em muitos casos, estes sinais limitam o desempenho de todo o sistema de visão,
como a taxa máxima de imagens por segundo. Nesta parte apresentaremos os tipos de
formatos de sinais mais utilizados.
Ressalta-se aqui, que deve-se tomar muito cuidado ao projetar um sistema de visão
para considerar o desempenho dos sinais de transmissão da imagem. Estes sinais possuem
limitações quanto a velocidade de transmissão, a resolução da imagem transmitida, a
sincronização entre computador e câmera e a qualidade da imagem transmitida. Um sinal de
vídeo mal selecionado para uma aplicação critica, pode inviabilizar todo um projeto.
23
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Informações de cores podem ser incluídas junto com os sinais de vídeo monocromáticos
(NTSC e PAL são exemplos destes padrões). Um sinal colorido composto consiste de um sinal
monocromático padrão (RS-170 ou CCIR) com os seguintes componentes adicionados:
• Sinal de Cor (Color Burst):ocalizado no sinal de referencia posterior (back porch), é
uma região de alta-freqüência a qual fornece a referência da fase e da amplitude para as
informações de cores subseqüentes.
• Sinal Cromático: Este é a informação de cor propriamente dita. Este consiste de 2
componentes modulados de quadratura na freqüência do sinal de cor. A fase e a amplitude
deste componentes determinam o valor da cor de cada pixel.
Outro aspecto do sinal de vídeo é o pulso de sincronização vertical (VSYNC). Este é, na
verdade, uma série de pulsos que ocorrem entre campos para sinalizar o monitor para retornar
a posição inicial e preparar para a varredura do próximo campo. Existem várias linhas entre
cada campo que não contém dados concretos da imagem. Alguns contém somente pulsos,
enquanto outros contém uma série de equalização e pulsos VSYNC. Este pulsos foram
definidos no surgimento dos sinais de TV e permanecem até nos padrões de hoje, embora
alguns novas tecnologias de hardware eliminou a necessidade de alguns dos pulsos extras.
É importante entender que o tamanho horizontal (em pixels) de uma imagem obtida de
uma câmera analógica é determinada pela taxa a qual a placa de aquisição coleta cada linha
de vídeo horizontal. Esta taxa, por sua vez, é determinada pela taxa de campos/segundo da
câmera (quantos VSYNC por segundo) e pela arquitetura da câmera. A estrutura do sensor da
câmera determina a dimensão de cada pixel.
• PAL
PAL é o padrão na Europa, menos para a França. Pode ser utilizado para imagens
monocromáticas ou coloridas e possui uma resolução norma de 768x576 pixeis.
• SECAM
SECAM é uma tecnologia de cabos analógicos empregados na França e no Leste
Europeu, com resolução superior ao PAL, padrão empregado no resto da Europa.
• Y-C
Este é um sinal de alta qualidade para câmeras coloridas. Este é um cabo com 2 fios de
cores. Os dois sinais enviados são luminância (Y) e chroma (C). A qualidade das cores é bem
superior que um cabo NTSC normal, por causa da separação das componentes de cores.
O padrão de cabos e conectores não deve ser confundido com o formato do sinal da
câmera. Câmeras CCD padrão geram um sinal composto, feito de informações de cores e
brilho. Sinais compostos, conhecidos por NSTC (cor) ou EIA (monocromático), transmitem por
24
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
um único canal requerendo apenas um cabo coaxial. Em um cabo coaxial, duas conexões
separadas são construídas entre os dispositivos, uma para o sinal de vídeo e outra para a
referência “fio-terra” (ground). Cabos de canais singulares possuem um conector do tipo “BNC”
ou “RCA”. Algumas câmeras coloridas produzem sinais em dois canais simultaneamente, uma
para a informação de cores e o outro para o brilho. Dispositivos de vídeo com canal duplo, ou
Y-C (algumas vezes chamados de S-Video ou SVHS), usam um conector “Y-C” de 4 pinos,
onde 2 canais compõem os dois canais e os outros 2 transmitem o “fio-terra” (ground).
Sinais de vídeo digitais são produzidos para câmeras que já digitalizam a imagem
diretamente no seu sensor, transmitindo esta imagem na forma digital para o computador.
Aplicações que requerem o uso destes sinais digitais de vídeo necessitam de alguns dos
requisitos abaixo:
• alta resolução especial (para grandes imagens);
• alta resolução de intensidade (número de bits por pixel);
• alta velocidade;
• flexibilidade na temporização ou nas características de varredura;
• imunidade a ruídos.
A temporização para sinais de vídeo digitais (figura abaixo) é muito mais simples que a
efetuada para sinais de vídeo analógico, pois o sinal está no formato digital. Eles utilizam um
clock de pixel, que temporiza a transferência entre a câmera e o computador, um comando de
linha (line enable) que indica o começo e o fim da transmissão de cada linha da imagem, e o
sinal de comando da imagem (frame enable) que indica o começo e o fim da transmissão de
cada campo ou imagem.
25
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
capaz de ler simultaneamente até 4 pixels contendo 8 bits cada um. Desta forma, a placa de
aquisição precisa ser configurada para posicionar estes pixels nas posições corretas no buffer
da imagem. A especificação da câmera indicará como será realizada a transmissão dos dados
para o computador.
A qualidade da transmissão da imagens é melhor, dependendo da resolução em bits por
pixel fornecida. Quanto maior a resolução, maior terá que ser a taxa de transmissão,
encarecendo os custos. Abaixo realizamos uma comparação para uma imagem
monocromática, indicando a resolução em bits:
• 8 bits: Este é o nível normal de qualidade, comparável ao EIA (RS-170) no formato
analógico. Em geral, o sinal é melhor devido a atenuação de ruídos. Permite até 256
níveis de cinza.
• 10 bits: A resolução já melhorou, agora pode-se obter até 1024 níveis de cinza;
• 12 bits: Um melhor significativa na resolução, que agora representa até 4096 níveis de
cinza. Poucos fabricantes oferecem câmeras com esta resolução.
• 14-16 bits: Resolução alta demais, empregada principalmente para aplicações
científicas como astronomia e micro-biologia. Muito rara e com elevado custo.
• TTL
TTL é o tipo de sinal padrão existe na eletrônica digital, ele é baseado em um valor DC
de voltagem em relação a um sinal de referência zero, onde 0V indica o bit '0' e 5V indica o bit
'1'. Como não é um sinal diferencial, sofre grande influência de ruído eletromagnético e só pode
ser empregado em cabos com curto comprimentos.
• RS422
Este é um sinal diferencial que permite altas taxas de transmissão, sendo o padrão
atualmente empregado nas câmeras digitais, sendo menos susceptível a ruídos e podendo ser
empregado em cabos com grandes comprimentos.
• Porta Paralela
Algumas câmeras realiza a conexão com o computador através da porta paralela deste,
transmitindo de forma paralela as imagens para câmera. Entretanto, esta tecnologia já esta
obsoleta, limitando o comprimento do cabo devido a susceptibilidade a ruídos e possuindo uma
baixa taxa de transmissão, não sendo portanto recomendada para sistemas de visão.
26
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
• IEEE 1394
IEEE 1394, também conhecido como “FireWire” (Fio de Fogo), é um porta serial de alta
performance, originalmente desenvolvida pela Apple computadores no início dos anos 1990s. A
especificação indica taxas reais de transmissão de 100 Mbits/s, 200 Mbits/s, e 400 Mbits/s.
Esta alternativa de conexão digital é pequena, fácil de instalar e possui as características “plug-
in-play” de configuração da sua rede. IEEE 1394 também permite tecnologia de “conexão
quentes”, onde dispositivos podem ser conectados e desconcertados estando o sistema
energizado.
A Intel teve intenção em 1999 de lançar todas as suas placas mães com chipset para
esta interface, na tentativa de transformá-la em um padrão para a comunicação digital.
Entretanto, a sua baixa taxa de transmissão diminui da comunidade de sistemas de visão, que
preferiu investir em outras tecnologias, como a USB 2.0. Atualmente, a Intel direcionou os seus
esforços para a tecnologia USB 2.0 deixando a tecnologia da IEEE 1394 sem prioridade, com
pouca perspectiva de mercado.
• USB 2.0
USB é um barramento externo que dá suporte à instalação Plug and Play. Através da
porta USB (Universal Serial Bus, barramento serial universal), pode-se conectar e desconectar
dispositivos sem desligar ou reiniciar o computador (tecnologia denominada conexão quente).
É possível usar uma única porta USB para conectar até 127 dispositivos periféricos, incluindo
alto-falantes, telefones, unidades de CD-ROM, joysticks, unidades de fita, teclados, scanners e
câmeras. Uma porta USB está normalmente localizada na parte traseira do computador
próximo da porta serial ou da porta paralela.
Tomando lugar da IEEE 1394, Intel desenvolveu a especificação final da USB 2.0. Nesta
especificação, amplia-se a taxa de transmissão da USB 1.1 de 12 Mbit/s para 480 Mbit/s (60
Mbyte/s).
Apesar da taxa de transmissão não atender as necessidades de sistemas de velocidade
muito altas e com alta resolução, esta tecnologia recebe todo o apoio da Intel, possuindo
inúmeros drivers e ferramentas para o desenvolvimento de produtos integrados por USB.
• Camera Link
O Sinal Channel Link foi desenvolvido pela National Semicondutores baseado na
tecnologia do LVDS, e por isso fornece uma alta taxa de transmissão com baixa
susceptibilidade a ruídos. A transferência pelo protocolo Channel Link oferece uma alta taxa de
transmissão com cabos finos e compridos. O Channel Link, foi muito bem recebido pela
comunidade de sistemas de visão, onde vários fabricantes do ramo participaram da criação da
sua especificação, na intenção de torná-lo um padrão.
Camera Link é uma interface criada por vários desenvolvedores de placas e câmeras.
Camera Link é baseada no chip Channel Link da National Semicondutores. Camera Link utiliza
um cabo com 11 pares de fios terminados com um conector MDR 26, fornecendo uma
combinação do tradicional sinal diferencial de baixa voltagem (LVDS) com um fluxo de
transmissão digital serial. O resultado é um cabo menor que é capaz de transmitir até 255
Mbits/s de dados de forma paralela, mantendo a imunidade a ruídos dos cabos seriais
robustos.
Um grupo de empresas organizados pela Pulnix definiram o Channel Link como padrão
em Abril de 2000. Pode-se ainda ampliar a taxa de transmissão, adicionando-se um segundo
cabo Channel Link. Channel Link possui também uma comunicação assíncrona com as
câmeras, fornecendo 4 entradas de alta velocidade para sincronização externas (trigger) e
outras funcionalidades. Estas entradas extras de controle, permitem a configuração de
sistemas bem mais complexos, sendo portanto uma alternativa flexível. Em um único cabo
Camera Link, pode-se acoplar ainda mais de uma câmeras.
O uso de conectores e cabos padronizados, produz uma redução nos custos e facilita a
instalação do sistema. Pretende-se ainda melhorar o protocolo, deforma a criar características
27
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
• HOTLink
Uma das tecnologias de transmissão digitais mais antigas em sistemas de visão
continuam a serem defendidas como viáveis pelos seus desenvolvedores (Wintriss, PPT
Vision). O chipset HOTLink foi criado um pouco antes do IEEE 1394, oferecendo um cabo com
2 pares trançados com taxas de transmissão de até 33 MByte/s, podendo utilizar cabos com
grandes comprimentos de até 100m. O sistema de conexão serial digital HOTLink inclui um
equalizador, uma fonte e um protocolo específico para transmissões em alta velocidade.
28
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.4.1 Hardware
2.4.1.1 Framegrabbers
O sinal de vídeo vindo da câmera é transmitido, geralmente via cabo coaxial, para o
Framegrabber. O mesmo captura o sinal de vídeo, digitaliza-o e guarda o quadro (frame) em
memória. Para a interface entre o Framegrabber e o programa aplicativo rodando no PC existe
um driver adequado, fornecido pelo fabricante. O programa aplicativo pode então executar as
funções de processamento e análise das imagens, utilizando, por exemplo, o auxílio de um
SDK (Software Development Kit - software específico com bibliotecas de tratamento de
imagens).
O Framegrabber, portanto, possibilita-se que sinais de vídeo vindos de uma câmera ou
outra fonte sejam capturados em um PC e colocados à disposição para tela do computador ou,
mais comumente, para softwares de processamento de imagens.
da imagem, tipo específica de câmera, entre outros, determinam fatores como a velocidade,
resolução e outras características desejadas do Framegrabber a ser usado. É importante
conhecer as principais características dos Framegrabbers para sua correta escolha, de modo
que ele não prejudique eficiência do Sistema de Visão como um todo.
Framegrabbers têm que ser capazes de manusear uma grande variedade de câmeras.
A câmera ligada ao Framegrabber fornecerá imagens segundo um padrão de vídeo específico
da mesma. Os padrões de vídeo podem ser divididos em analógicos e digitais. Aplicações
usuais utilizam câmeras analógicas comuns. Em casos específicos é necessário o uso de
câmeras digitais.
Alguns formatos de vídeo fornecidos por câmeras digitais são, por exemplo, o RS422 e
EIA-644. Estes padrões têm algumas vantagens sobre os analógicos, como maior imunidade a
ruído, maior resolução e taxas de transmissão muito mais elevadas. Por exemplo, RS422
transmite a uma velocidade de 40 MB/segundo e EIA-644 a até 100 MB/segundo. Porém tanto
câmeras quanto Framegrabbers que operam com sinais digitais apresentam maior custo.
30
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
31
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Uma interface completa com uma câmera inclui arquivos de configuração de câmera e
cabos. Um arquivo de configuração é necessário para configurar o Framegrabber, tanto
analógico como digital, com uma câmera em particular. Cada arquivo é único para uma
câmera, e múltiplos arquivos podem ser necessários para operar-se uma câmera em seus
diferentes modos.
Principalmente no caso de câmeras digitais, algumas vezes as necessidades da
aplicação não conferem com nenhum arquivo de configuração disponível, ou necessita-se
modificar as configurações, ou até mesmo modificar-se câmeras. Nestes casos necessita-se de
uma maneira fácil de criar-se arquivos de definição de câmeras próprios. Assim, Aplicativos de
Configuração de Câmeras tornam-se muito úteis.
A escolha de cabos para câmeras analógicas é relativamente simples, resumindo-se na
maioria das vezes a cabos coaxiais normais. Já para câmeras digitais há diversas
possibilidades de cabos para a conexão com o Framegrabber . Existem designs de cabos com
um, dois ou quatro canais; 8, 10, 12 ou 14 bits por canal; cabos para sinais RS422 ou EIA-644.
2.4.1.1.1.8 Software
O objetivo é assegurar-se que o Framegrabber virá com tudo o que é necessário para
desenvolver-se o sistema com sucesso. Seus drivers devem fornecer todas as funções
necessárias ao programador. Aquilo que não é fornecido ficará ao cargo do usuário
desenvolver.
32
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Muitas aplicações de visão industrial requerem que o computador “host” opera diversos
dispositivos e controle diversos eventos. A tendência atual é o uso de softwares multitarefa
voltados a interrupções. Portanto é desejável um Framegrabber que seja capaz de funcionar
em um sistema operacional como Windows NT usando interrupções e múltiplas threads.
33
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.4.2 Software
34
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
1
O driver de um dispositivo é uma interface (várias funções) fornecida pelo fabricante do dispositivo que
permite a integração deste com o aplicativo usuário.
35
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Desta forma, ao modelarmos uma placa de aquisição, atribuímos a ela funções como
Gerenciamento de câmeras, Transferência de imagens, Pré-processamento de imagens, entre
outras. Já para uma câmera, atribuímos funções como Aquisição de imagens, Configuração de
parâmetros de aquisição, entre outras. As imagens em si também devem ser armazenadas em
objetos próprios, que desempenhariam funções de Carregamento/Salvamento destas, além de
informar sobre características da imagem.
Atualmente existem drivers que implementam uma interface genérica para dispositivos
de aquisição de imagens – por exemplo, a biblioteca TWAIN (Windows e Mac) e a WIA (do
Windows) – fruto do esforço por padronização destes serviços. Elas são relativamente novas e
utilizadas para controle de periféricos como Webcams, Scanners e Máquinas fotográficas
digitais – dispositivos de auxílio doméstico e em escritórios.
A biblioteca TWAIN destaca-se em relação a WIA por manter maior compatibilidade com
os periféricos de aquisição de imagens atuais. Além disso, a própria biblioteca WIA do
Windows utiliza dos recursos da biblioteca TWAIN para realizar seus serviços.
Quanto ao princípio de funcionamento da biblioteca TWAIN, ela apresenta uma estrutura
em camadas, de forma a facilitar a comunicação do aplicativo usuário com os dispositivos de
imagem. O aplicativo conversa com a interface TWAIN através de mensagens (conhecidas
como operation triplet) passadas a um elemento chamado Data Source Manager – DSM, o qual
detém todo o controle sobre os periféricos de aquisição de imagens conectados ao
computador:
36
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
38
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
A imagem digital é composta de uma matriz numérica onde cada elemento representa a
intensidade luminosa em um determinado ponto. Já uma região de interesse, ROI (Region Of
1
Representa a menor unidade de tamanho da imagem
39
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Interest), caracteriza-se como um segmento desta imagem, ou uma sub-imagem. As ROIs são
normalmente utilizadas quando deseja-se analisar apenas uma parte específica da imagem.
Outra característica da ROI é a sua hierarquia múltipla, i.e., cria-se uma ROI
referenciando-se uma região da imagem. Entretanto, pode-se criar uma segunda ROI
referenciando-se uma região de uma ROI pré-existente (ver Figura). Isto significa que pode-se
referenciar ROI em relação umas com as outras e em relação com imagens.
41
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.4.2.2.4 Threshold
• Gauss: muito utilizado para suavizar imagens e atenuar ruídos, utilizando uma
curva de Gauss para calcular os ganhos da matriz de convolução.
Pode-se, ainda, combinar a dilatação com a erosão para construir operadores mais
importantes:
• Abertura (Open): erosão seguida de uma dilatação. Esta operação ressalta furos
internos do objeto e tende a separar elementos na extremidade do objeto;
• Fechamento (Close): dilatação seguida de uma erosão. Esta operação tende a
fechar furos internos no objeto e a conectar elementos na extremidade do objeto;
• Acerto e Erro (Hit and Miss): aplica os operadores de abertura e fechamento para
ressaltar os contornos do objeto;
• Grandiente: aplica os operadores de abertura e fechamento de forma a calcular o
gradiente da imagem;
• Top-Hat: aplica os operadores de abertura e fechamento para ressaltar os
contornos do objeto, principalmente no caso de objetos claros com fundo escuro;
• Black-Hat: aplica os operadores de abertura e fechamento para ressaltar os
contornos do objeto, principalmente no caso de objetos escuros com fundo claro.
43
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Serve para detectar formas geométricas que são facilmente parametrizadas (linhas,
círculos, elipses) em imagens computacionais binárias.
Inicialmente, a imagem precisa ser processada a fim de ressaltar apenas os pontos que
definem essas formas. Deste modo, aplicam-se algoritmos de filtragem derivativa para ressaltar
apenas os pontos que pertençam a contornos. Após esta análise, os pontos com intensidade
maior que zero (‘0’) são armazenados em um conjunto. Em seguida, define-se qual a equação
que melhor representa o conjunto de pontos a serem processados.
44
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
2.4.2.2.8 Segmentação
2.4.2.2.9 Contornos
45
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
3 Aplicações
Devido a grande diversidade de tecnologias base que integram a tecnologia de
Sistemas de Visão, há uma certa flexibilidade quanto aos tipos de aplicações disponíveis.
Dentre os principais ramos de aplicação encontram-se:
• Controle de Qualidade: rígido monitoramento sobre características particulares
de produtos industriais, procurando evitar o contato de produtos defeituosos com o
mercado consumidor.
Exemplos: verificação de presença de tampas, lacres e rótulos em garrafas de
refrigerantes, verificação de presença de comprimidos e sua coloração em blisters1,
verificação de números de lote, referências e datas de validade em produtos
alimentícios, verificação da integridade física de peças para veículos automotivos,
verificação de trilhas e componentes eletrônicos em placas de circuito impresso, ...
1
Matriz de alumínio que envolve comprimidos.
2
Código bidimensional em forma matricial com grande capacidade de armazenamento de informações.
46
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Nosso enfoque neste trabalho é mostrar uma aplicação clássica dos Sistemas de Visão,
na área de controle de qualidade, e posteriormente abordar um pouco sobre a extensa área de
Rastreabilidade, apresentando uma das mais novas tecnologias utilizadas para marcação e
rastreamento de produtos.
47
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
1
Um sinal de trigger representa o acontecimento de algum evento, que provavelmente deverá ser
tratado.
48
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Figura 3.5 – Embalagem de produto alimentício com iluminação específica para ressaltar a data de validade e
o lacre de segurança.
Figura 3.6 – Análise da imagem – aprovação do lacre e reprovação da data de validade (danificada).
Podemos ver que alguns filtros foram aplicados a imagem antes de realizarmos a
comparação. Mais do que isto, a imagem foi dividida em 4 partes distintas, e a cada uma dela
foi aplicado um processamento diferente. Por exemplo, para a data de validade aplicou-se um
filtro visando ressaltar os contornos das letras. Já para o lacre de validade, tentou-se suavizar a
imagem para reduzir ainda mais o reflexo emitido pelo lacre de metal.
Esta aplicação poderia muito bem incorporar um sistema de rejeito, digamos, um pistão
pneumático, responsável pela expulsão da linha de produção de todos as embalagens que
tivessem defeito na data de validade, ou não contivesse o lacre de validade,...
Mais ainda, poderíamos embutir funcionalidades de log e relatórios automáticos para o
sistema, visando um controle a nível gerencial da linha de produção.
49
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Uma série de tecnologias unidimensionais existem, e cada uma possui suas próprias
características. A diferença básica entre estas tecnologias e as novas técnicas que estão
aparecendo é que as tecnologias unidimensionais codificam a informação em apenas um eixo.
Ou seja, apesar de serem símbolos em duas dimensões, uma dimensão é lida, enquanto a
outra fica como um alto grau de redundância para esta leitura. Uma vantagem óbvia desta
forma de codificação é que se torna possível a obtenção de boas leituras mesmo com alta
porcentagem de destruição das etiquetas. Esta redundância, como veremos, não aparece em
algumas das tecnologias de marcação bidimensionais que serão vistas. Leitura bastante
rápida, por intermédio de scanners a laser, é outra vantagem destas técnicas de marcação. Os
maiores problemas destas técnicas de marcação são a limitada capacidade de
armazenamento, a necessidade de acesso a bases de dados (uma vez que a informação
codificada é, simplesmente, utilizada como um valor de referência a arquivos de dados), e a
necessidade de existência de grande contraste entre as linhas para leituras de qualidade
aceitável.
Os códigos de barras mais comuns consistem de uma série de barras e espaços
verticais agrupados, aplicados na identificação de pacotes, cartões, garrafas, produtos
comercializados em geral, etc. As barras e espaços estão agrupados de tal forma a representar
caracteres ASCII. Cada caractere tem sua própria codificação, e cada código (code 39, code
128, ...) tem sua própria padronização (simbologia). Atualmente há mais de 400 simbologias
diferentes em uso no mercado. Algumas suportam codificação de dados numéricos, outras
alfanuméricos, e outras suportam toda a tabela ASCII.
Normalmente estes códigos não contém as informações do produto em si, mas apenas
uma identificação que ajude o sistema de leitura a acessar um banco de dados onde estão as
informações do produto.
Cada código é estruturado da seguinte forma: inicia com um espaço em branco (quiet
zone), seguido de um código de inicialização (start code), as informações propriamente ditas
(data), um código de parada (stop code) e mais um espaço em branco (quiet zone). Para
melhor entendimento, podemos verificar a estrutura de um código de barras na figura seguinte:
Ao passar um scanner sobre o código a ser lido, a luz emitida pelo scanner é absorvida
pelas barras pretas e refletida pelos espaços, esta luz refletida é recebida por uma fotocélula
do próprio scanner, a qual converte este sinal luminoso em sinal elétrico. Podemos ver este
processo na figura abaixo:
51
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Assim, sempre que o primeiro caractere de um código 39 for um espaço (ASCII 32), o
símbolo deve ser anexado a um buffer, e assim continua até aparecer um símbolo sem
o espaço no início do código, sendo este anexado ao buffer que é em seguida liberado
(enviado).
• CODE 128 - O código 128 tem comprimento variável e suporta toda a tabela
ASCII (128 caracteres). Cada caractere é representado por 11 elementos (barras e
espaços) que podem variar dentre 4 possíveis espessuras. Este é o código mais fácil de
se ler, com maior integridade de código devido a várias mensagens de verificação de
erros inclusas no código. Este é o código mais flexível de todos os existentes. Possibilita
também, como o code 39, fazer truncamento de mensagens (append).
• CODE 93 - Similar ao código 39, suporta toda a tabela ASCII. Arranja seu
caracteres em 9 elementos arranjados em 3 barras com espaços adjacentes. Suporta
também truncamento de mensagens.
• UPC-A (UPC-12) - Universal Product Code-A, tem comprimento fixo, podendo
armazenar no máximo 12 dígitos numéricos. Os seis primeiros dígitos são determinados
pela UCC (Uniform Code Council) em Dayton, Ohio, outros 5 dígitos são determinados
pelo fabricante do produto a ser identificado e o último dígito é um dígito verificador.
• EAN/JAN-13 - Similar ao UPC-12, tendo comprimento fixo de 13 dígitos. Os
últimos 3 dígitos podem representar o código de um país.
• INTERLEAVED 2 OF 5 - De comprimento variável, sempre de tamanho par,
suporta números. Possui 2 elementos espessos e 3 finos. Suporta dígito verificador
sendo este o último no código.
• CODABAR - De comprimento variável capaz de codificar até 16 caracteres.
• MSI PLESSEY - Simbologia de comprimento variável que suporta números.
Cada caractere é composto de 4 barras com espaços adjacentes. Suporta até dois
dígitos verificadores.
Dentre as diferentes simbologias acima citadas, apenas code 39, code 128 e code 93
são consideradas linguagens de codificação atuais. As demais são mais antigas. Temos alguns
exemplos de diferentes códigos abaixo, e também uma tabela resumo dos principais códigos
existentes:
53
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
54
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
câmera CCD, mas requer a utilização de impressoras de alta definição para qualidade
aceitável.
• MicroPDF417 – Uma variação do PDF417, que permite gravar símbolos
menores, mas contendo menos informação. Pode codificar todos os caracteres ASCII,
até um máximo de 250 alfanuméricos por símbolo.
55
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Data Glyphs Data Strip Maxi Code SnowFlake Aztec Code Ultra code
Code
Figura 3.12 – Códigos 2D
(ECC000 a ECC140), e aquelas que fazem uso de técnicas de correção de erros Reed-
Solomon (ECC200), com o grau de proteção podendo ser escolhido pelo usuário.
Permite leituras boas com apenas 20% de contraste, permitindo a utilização de várias
técnicas diferentes de marcação, boa resistência a ambientes industriais e uma grande
robustez no armazenamento de informações.
57
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Serão analisadas, nesta seção, características técnicas de cada uma das variadas
formas de se aplicar as marcações necessárias para rastreabilidade sobre os produtos. Serão
vistos rapidamente métodos de impressão de etiquetas, mas daremos mais ênfase aos
métodos de impressão diretamente sobre o produto, uma técnica que vem ganhando bastante
espaço em variadas indústrias. Métodos amplamente conhecidos, como impressoras dot-
matrix, utilizadas para impressão de etiquetas, não serão vistos.
Marcação a laser é uma das técnicas mais utilizadas de marcação, pois permite tanto
que se imprima etiquetas quanto o próprio produto (é claro que não com a mesma impressora).
Para etiquetas, impressoras a laser com tambor são utilizadas, e para marcação direta de
partes utilizam-se métodos que vaporizam ou deformam parte da superfície do produto.
A impressão que utiliza lasers para marcação direta de partes é também chamada de
Third Thermal, pelo fato dos raios serem utilizados de tal forma a criar altas temperaturas em
posições determinadas. Esta alta temperatura faz com que parte do substrato evapore, ou
queime, tornando a marcação permanente.
Geralmente utilizam-se dois raios laser separados, que, com a utilização de dois
espelhos e lentes são movidos de forma a descreverem, no substrato, a rota que criará a
imagem desejada.
As vantagens de se ter uma marca permanente e inerte quimicamente na parte são
óbvias. Partes marcadas diretamente podem, por exemplo, ser submetidas a tratamentos
químicos que uma parte etiquetada ou marcada com tintas possivelmente não poderia.
Contudo, algumas características deste processo de marcação tornam-no um pouco caro.
Como lasers de alta potência são utilizados, é necessário que se isole a aparelhagem, a fim de
não serem causados acidentes. Se total isolamento não é possível, pode-se também utilizar
lasers fora do espectro visível, o que também tende a encarecer o produto.
58
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Outra consideração a ser feita é quanto ao material que será tratado. As características
de absorção de calor dos materiais influi na forma como esta impressão deve ser feita.
Especialmente com plásticos, que mudam sua capacidade de absorção de calor à medida que
a temperatura é elevada, o processo de impressão pode, muito rapidamente, fugir do controle,
e destruir a parte. Mas, adicionando-se outros materiais (mais estáveis) à composição destes
polímeros, pode obter maior controle sobre o processo. Outra vantagem deste método, em se
utilizando lasers gerados por neodymium (yttrium alluminum garnet, ou YAG), é que estes
podem, por curtos períodos de tempo, armazenar a energia produzida, para gerar pulsos de
altíssima potência. Como exemplo, com a pulsação deliberada de lasers de apenas 50 watts
de potência, pode-se produzir pulsos na casa dos milhares de watts, capazes de derreter aço.
Para impressão direta de partes, os métodos de impressão por jato de tinta talvez sejam
os mais versáteis e fáceis de implementar. Uma ampla gama de tipos de tinta, cada uma com
suas características óticas, tempos de secagem, entre outros, podem ser utilizadas com a
mesma aparelhagem. São, portanto, bastante flexíveis.
São também muito utilizadas pelo fato de serem marcas permanentes mas removíveis.
As próprias características químicas destas tintas permitem que, com a combinação apropriada
de produtos, uma marca seja removida. Mas, em outros casos, pode-se garantir que a marca
não pode ser removida.
Além disto, impressoras a jato de tinta são capazes de produzir um grau de detalhes
impressionante. Como exemplo, uma impressora da VideoJet Systems pode produzir jatos de
tinta de 36 microns de espessura.
Métodos de impressão tipográfica fazem uso de contato físico entre o produto a ser
marcado e a aparelhagem de marcação. O método em si pode ser descrito como sendo o de
um prego deformando a superfície nas posições apropriadas, de forma a, permanentemente,
marcar a parte. Também se utilizam agrupamentos de tipos, de forma que a imagem toda seja
gravada de uma só vez. Estes métodos são chamados de die-stamping, ou roll-marking, de
acordo com a maneira de serem aplicados sobre os produtos.
59
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Métodos de impressão que fazem uso de calor para marcar etiquetas ou superfícies são
divididas em dois tipos. Transferência direta de calor para o produto (ou etiqueta a ser
marcado), e transferência através de um substrato. Estes dois tipos de impressão térmica são
mais utilizados em impressão de etiquetas, ao invés de trabalharem com marcação direta.
Além disto, um terceiro tipo de impressão por calor pode ser utilizado, o chamado Third
Thermal. Este método faz uso de lasers para evaporar parte da superfície a ser gravada, e por
isto será visto, em maiores detalhes, na seção sobre marcação a laser.
Esta técnica requer que a superfície a ser gravada seja, antes, coberta por alguma
substância que mude de cor quando aquecida. O produto pode, diretamente, ser coberto por
esta substância, mas esta técnica é mais utilizada para marcação de etiquetas, pela facilidade
de manuseio. O exemplo mais clássico do uso desta técnica são as impressoras de fax. São
mecanismos muito simples e que consomem baixa quantidade de energia, e portanto, estão
entre os mais baratos meios de impressão de códigos de barras. Contudo, a camada sensitiva
a calor tem sua qualidade degradada rapidamente, quando exposta a condições adversas
(calor, luz solar, luzes ultravioleta, produtos químicos), e portanto só são utilizadas em produtos
que tenham um ciclo de vida reduzido.
A única diferença desta técnica para a de transferência direta de calor, é que esta
coloca uma fita de cera ou resina entre o produto a ser impresso e o elemento produtor de
calor. A vantagem é que, desta forma, as imagens criadas não degradam com calor ou
incidência de luz, além de serem mais rápidas. Apesar destas vantagens, as fitas precisam ser
trocadas periodicamente, e as impressoras requerem linguagens de controle que não são de
domínio público, encarecendo o produto.
Uma variedade de outro métodos para marcação direta das partes existe, mas estas
são, geralmente, mais específicas para um certo tipo de material. Por exemplo, marcação por
abrasão, similar a jatos de areia, pode ser utilizada para marcar vidros ou outros materiais
“duros”. Para tecidos, marcas de bordados são comumente utilizadas.
60
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
61
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
Os dois maiores problemas com métodos de leitura que fazem uso de câmeras CCDs
eram o preço e a performance destes. Comparando-se com scanners comuns, estes leitores
eram mais caros e menos robustos. Como é preciso que se faça o processamento de uma
imagem, o consumo de energia é maior do que a simples leitura por scanner. Isto poderia
impossibilitar a criação, por exemplo, de leitores manuais, pois a bateria que estes precisariam
carregar certamente os tornaria muito pesados e incômodos.
Contudo, estes problemas estão, rapidamente, desaparecendo. Tanto em termos de
preço, como em termos de performance, novas tecnologias que estão sendo desenvolvidas
não deixam a desejar. Desenvolvimentos na área de sensitividade à luz (especialmente com o
desenvolvimento de leitores com tecnologia CMOS) tem feito os preços baixarem rapidamente,
ao mesmo tempo em que a tecnologia se torna mais flexível e robusta.
A leitura feitas através de CCDs tem algumas grandes vantagens, contudo, sobre as
leituras feitas com scanners a laser. Ao passo que os scanners a laser só podem ler símbolos
unidimensionais (e alguns poucos bidimensionais, como veremos na próxima parte), métodos
de leitura por CCDs podem, com sucesso, ler tanto as marcações bidimensionais que estão
surgindo, como as marcas unidimensionais já existentes.
É, também possível, fazer a leitura de múltiplos símbolos ao mesmo tempo. Ao passo
que scanners a laser precisam ler um símbolo de cada vez, os leitores com CCDs podem ler
vários ao mesmo tempo, sendo estes depois processados separadamente. Com isto,
economiza-se tempo e trabalho. Outra grande vantagem é o fato destes leitores poderem ler
os símbolos de qualquer direção. Um pacote que está de cabeça para baixo demandaria que
um scanner a laser fosse posicionado de acordo. Contudo, se utiliza-se um leitor com CCDs,
esta mudança em posicionamento não é necessária, uma vez que a imagem adquirida terá que
ser processada. Uma pequena mudança na imagem recebida não acarretaria grandes
demoras no tempo de decodificação.
Uma outra vantagem dos leitores com CCDs é a possibilidade de se fazer
rastreabilidade da qualidade das próprias marcações. Ao ser adquirida uma imagem, esta pode
ser avaliada quanto à qualidade do rótulo (ou símbolo) que foi lido. Detectando-se problemas
neste rótulo (ele pode estar rasgado, sujo, incompleto), pode-se, automaticamente, dar início a
um processo de recuperação ou recriação deste. Scanners a laser não tem esta possibilidade,
uma vez que não se tem uma imagem do símbolo, e sim uma interpretação do que seja este
símbolo. A degradação da qualidade na marcação pode não ser sentida quando pequena, mas
no momento em que se ultrapassa um certo ponto, um dado rótulo pode nunca mais ser lido,
pois a falta de qualidade deste não o permite. Em outras palavras, com leitores CCDs pode-se
fazer manutenção preventiva sobre este rótulos.
62
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
63
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
4 Conclusões
Os Sistemas de Visão tiveram um grande desenvolvimento muito devido à necessidade
de inspeção de qualidade dos processos de manufatura industriais, com o objetivo de isolar
produtos defeituosos de consumidores exigentes, e para atender ao rigor de órgãos fiscais
governamentais de controle de qualidade.
Mas por lidarem com a integração de uma série de tecnologias em constante
desenvolvimento, os Sistemas de Visão tornaram-se cada vez mais flexíveis, e passaram a
atender uma grande faixa de aplicações, das quais podemos citar áreas de controle de
qualidade, rastreabilidade, controle de tráfego rodoviário, segurança, dentre outras.
Por sua extrema eficiência e flexibilidade, os Sistemas de Visão vem ganhando um
mercado cada vez mais abrangente, mas no entanto, deve ser ressaltado que a grande parte
do mercado consumidor destes produtos trata-se de corporações, grandes empresas,
indústrias, órgãos governamentais, etc. Ou seja, são todos consumidores potenciais que lidam
com transações financeiras de grande porte. Para estes consumidores, normalmente o
investimento de capital em caros Sistemas de Visão resulta, de certo modo, num retorno
positivo à empresa.
Os Sistemas de Visão são uma tecnologia de ponta e relativamente cara para
consumidores normais (pessoas, pequenas empresas, pequenos comércios), tendo em vista
que um sistema completo pode variar custos numa faixa de U$10.000,00 a U$100.000,00 (ou
mais), dependendo é claro da aplicação.
Os altos custos destes sistemas vem de uma série de fatores, dentre os quais podemos
citar alguns:
• Exigência de mão-de-obra muito especializada (aliás uma equipe completa);
• Componentes de hardware como câmeras CCDs, kits de iluminação, sistemas
de atuação mecânicos, placas de aquisição de imagens, etc. são muito caros;
• O software que acompanha os sistemas tem um custo altíssimo (custo “zero”
para o fabricante, mas custo alto para o cliente);
• Preços sobre a qualidade dos produtos, manutenção e atendimento.
Apesar do alto custo do sistema, ele provém, na maioria das vezes, uma relação custo-
benefício de extrema importância para seus potenciais consumidores, o que faz com que cada
vez mais esta tecnologia seja difundida e utilizada em novas aplicações.
Temos também aplicações mais baratas, já bem conhecidas dos consumidores
“menores”, que são a tecnologia de webcams e scanners em casa e escritórios, viabilizando
videoconferências, aquisição de imagens e textos, dentre outras.
Para o futuro, já comenta-se bastante sobre novas aplicações utilizando-se de
tecnologias de câmeras embarcadas ou Smart Cameras, onde praticamente todo o hardware e
software do sistema estaria literalmente embarcado dentro de uma câmera, provida de um
microprocessador de última geração e comunicação com computadores/controladores centrais
via rede, capaz de realizar aplicações antes inviáveis devido principalmente a falta de espaço
físico.
Acompanhando estas inovações de hardware, espera-se também grandes inovações na
parte de software dos sistemas. Aplicações envolvendo algoritmos baseados em inteligência
artificial já são utilizados atualmente, mas com muito pouca eficiência. Investimentos pesados
em pesquisas nesta área podem viabilizar o aparecimento de verdadeiros sistemas
inteligentes, capazes de tomar decisões autônomas, fazer reconhecimento de padrões,
adaptar-se ao meio e a situações pela qual é submetido, estimar automaticamente métodos e
parâmetros para o melhoramento de atividades e processos, dentre outros.
64
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade
5 Referências Bibliográficas
[1] ORTH, A.: Desenvolvimento de um Sistema de Visão para medir o Desgaste de
Flanco de Ferramentas de Corte, Dissertação para o Programa de Pós-Graduação
em Engenharia Elétrica, UFSC, Brasil, Dezembro, 2001.
[2] PAVIM, A.; CUNHA, E. e BECK, F.: Rastreabilidade – Marcação, Leitura e
Armazenamento, Programa Multiplicadores de Conhecimento, Pollux Sistemas de
Visão, Brasil, Novembro, 2000.
[3] ORTH, A.: Câmeras – Olhos Eletrônicos dos Sistemas de Visão, Programa
Multiplicadores de Conhecimento, Pollux Sistemas de Visão, Brasil, Janeiro, 2001.
[4] PUCHALSKI, G.: Frame Grabbers, Programa Multiplicadores de Conhecimento,
Pollux Sistemas de Visão, Brasil, Novembro, 2000.
[5] LUDOVICO, C.: Hardware de Iluminação – Tratamento da Luz para a Aquisição
de Imagem, Programa Multiplicadores de Conhecimento, Pollux Sistemas de Visão,
Brasil, Novembro, 2000.
[6] TWAIN ORG: Twain Specification, version 1.9, em http://www.twain.org, Twain
Org, Janeiro, 2000.
[7] SANE: Linux Scanner – Camera API, em http://www.mostang.com/sane/, SANE,
Novembro, 2001.
[8] MICROSOFT: Still Image and WIA, em http://www.microsoft.com/DDK, Microsoft,
Outubro, 2001.
[9] POLLUX: Sistemas de Visão, em http://www.pollux.com.br, Pollux Sistemas de
Visão, Março, 2002.
[10] POLLUX: Data Matrix, em http://www.datamatrix.com.br, Pollux Sistemas de Visão,
Março, 2002.
[11] MACHINEVISIONONLINE: Machine Vision, em
http://www.machinevisiononline.com, Machine Vision Online, Março, 2002.
65
This document was created with Win2PDF available at http://www.daneprairie.com.
The unregistered version of Win2PDF is for evaluation or non-commercial use only.