Documente Academic
Documente Profesional
Documente Cultură
Questão 1:
O espectro eletromagnético são regiões espectrais da radiação eletromagnética
(REM) conhecidas atualmente, que se estende desde os comprimentos de onda dos raios
cósmicos aos comprimentos de corrente alternada emitidos pelas redes de alta tensão. A
verdade é que, a faixa de comprimento de onda da REM é praticamente ilimitada.
A REM possui comportamento dual, onde ela se comporta como onda e energia,
formulada pelos modelos denominados ondulatório (onda) e corpuscular (energia). Sob
uma perspectiva ondulatória, ondas eletromagnéticas podem ser interpretadas como ondas
senoidais, de vários comprimentos, que propagam na forma de ondas formadas pela
oscilação dos campos elétrico e magnético, e sob a perspectiva corpuscular, as ondas
eletromagnéticas se comportam como um fluxo de partículas sem massa, concebida com
resultado da emissão de pequenos pulsos de energia, cada uma se deslocando em um
padrão ondulatório e se movendo na velocidade da luz. Cada partícula sem massa contém
certa quantidade de energia, denominada fóton. Segundo Gonzalez e Woods(2010, p.34) se
agruparmos as bandas espectrais de acordo com a energia por fóton, teremos o que
chamamos de espectro mostrado na figura 1.5 , variando desde raios gama (mais alta
energia) em um extremo a ondas de rádio (mais baixa energia) no outro.
Modelo Ondulatório:
Segundo o modelo ondulatório, a REM pode ser explicada como uma forma de
onda senoidal e harmônica. De acordo com as formulações de Maxwell, uma
partícula carregada eletricamente gera um campo elétrico em torno de si e o
movimento dessa partícula gera, por sua vez, um campo magnético. Ambos os
campos, elétrico e magnético, atuam vibrando ortogonalmente entre si e possuem
as mesmas amplitudes, isso é, alcançam os seus máximos ao mesmo tempo. As
variações do campo são causadas pelas vibrações da partícula. Quando essa
partícula é acelerada, as perturbações entre os dois campos se propagam
repetitivamente no vácuo em uma direção ortogonal à direção dos campos
elétricos e magnéticos, como é mostrado na Figura 1.1. Essas perturbações dos
campos elétrico (E) e magnético (M) são chamadas de ondas eletromagnéticas. O
comprimento da radiação eletromagnética depende de quanto tempo a partícula é
acelerada, e a frequência ν da radiação depende da frequência de vibração da
partícula. Assim, define-se uma onda eletromagnética como a oscilação dos
campos E e M, segundo um padrão harmônico de ondas, isso é, ondas espaçadas
repetitivamente no tempo. Esses campos dinâmicos sempre ocorrem juntos como
padrões inseparáveis, de modo que nem campo elétrico puro, nem campo
magnético puro de ondas irradiadas ocorrerão separadamente um do outro
(ALMEIDA e MENESES, 2012, p.4).
Modelo Corpuscular:
As formulações de Maxwell sobre o comportamento da radiação eletromagnética
como um movimento de ondas suaves dos campos elétrico e magnético falham
em explicar certos importantes fenômenos quando a radiação eletromagnética
interage com a matéria. Esse comportamento é mais evidente para as ondas de
pequenos comprimentos. Desde os primeiros experimentos de geração de ondas
eletromagnéticas observou-se que a radiação é emitida em forma de pulsos que
carregam certa quantidade de energia. Em 1901 Planck observou que a REM
transferia energia de um corpo para outro em quantidades fixas e discretas, à qual
denominou de fótons. O fóton é a forma física de um quantum, a partícula básica
estudada em mecânica quântica (ramo da física que se dedica com o muito
pequeno, nos níveis atômicos ou subatômicos), e que pode ser descrita como a
partícula mensageira da energia da onda eletromagnética. Os fótons são como
corpúsculos de energia sem matéria. Assim, uma onda eletromagnética exibe
propriedades de partículas, como as partículas (elétrons) exibem propriedades de
onda.De acordo com o modelo corpuscular, a energia da onda, ao atingir a
superfície dos materiais, interage com ela por meio de trocas de energia entre a
energia discreta que carrega e as energias, também discretas, contidas nos átomos
e moléculas da matéria. As energias contidas nos átomos e moléculas estão
distribuídas por níveis de energia, que são determinados pelos orbitais dos
elétrons em torno do núcleo e pelas forças de vibrações das ligações moleculares.
Para haver uma troca ou interação da energia da radiação da onda com a energia
da matéria, é preciso que a REM incidente seja em parte absorvida pelos elétrons
ou moléculas, o que promove uma mudança do elétron de um orbital para outro
de maior energia, ou em um aumento da intensidade da vibração molecular
(Figura 1.4). A parte da energia da radiação eletromagnética que não é absorvida
é refletida para o sensor. Nesse processo, as imagens medem a radiação refletida,
mas, indiretamente, podemos avaliar o que foi absorvido pelos materiais.
(ALMEIDA e MENESES, 2012, p.8).
Raios Cósmicos: Tem comprimento de onda de 0,1 x 10-10 m.
O fluxo de raios cósmicos que atravessam os meios interplanetários e interestelar
e composto de 90% de prótons, 9% de partículas alfa e o restante de núcleos de
elementos mais pesados. A movimentação destas partículas pela heliosfera é um
exemplo de interações magnetohidrodinâmicas. Magnetohidrodinâmica (MHD) é
o estudo do movimento de um fluido condutor de eletricidade na presença de um
campo magnético. As correntes elétricas induzidas no fluido como resultado de
seu movimento alteram as linhas de campo magnético, por sua vez a variação das
linhas de campo magnético produzem forças que modificam o movimento do
fluido. Os conceitos de raios cósmicos são de imprescindível importância para a
compreensão das condições ambientais no espaço interplanetário que podem
causar algum impacto sobre o ambiente terrestre (OLIVEIRA et al, 2014).
Fonte: Bonifazi(2015)
O AMS-02 (Alpha Magnetic Sprectrometer) foi desenhado para operar como um módulo
externo da estação espacial internacional. Seu objetivo principal é a busca de anti-
matéria, mas também realiza medições de alta precisão da composição dos raios cósmicos
e seu fluxo.
Fonte: Bonifazi(2015)
Fonte: http://site.mast.br/multimidia_instrumentos/cintilometro_atualidade.html
Fonte:http://www.directindustry.com/pt/prod/inspection-
technologies/product-9257-1106803.html
Fonte: https://www.filipeflop.com/produto/sensor-de-raio-
ultravioleta-uv/
Luz Visível: 0,38 a 0,76 µm.
É a região do espectro solar com a mais alta intensidade de fluxo radiante e onde
há a melhor janela atmosférica, bastante transparente, deixando passar uma
grande quantidade de radiação. Por isso, é muito usada em sensoriamento remoto.
É a região responsável pela interação com os minerais e que dá origem às suas
cores e com os pigmentos da vegetação. O problema dessa faixa espectral é o alto
espalhamento da radiação solar incidente pelos gases atmosféricos, que pode
reduzir o contraste da reflectância dos alvos terrestres. É chamada de visível,
porque o olho humano é sensível a essa região espectral (MENESES et al, 2012,
p.20).
Exemplo de sensor luz visível, câmera RGB de luz visível:
Fonte: https://www.geotrackconsultoria.com.br/produto/516-camera-
survey-3n-rgb-de-luz-visivel
Infravermelho:
Fonte: http://www.medicalexpo.com/pt/prod/fluoptics/product-104212-
675644.html
Ondas curtas: 1,2 a 3 µm.
Região onde o Sol e a Terra não emitem quantidades suficientes de energia que
possam ser detectadas pelos sensores. Somente alvos com elevadas temperaturas,
como vulcões e incêndios, podem ser detectados, pois agem como fontes próprias
de emissão de radiação. É uma região espectral pouco usada no sensoriamento
remoto, à exceção de sensores meteorológicos ou atmosféricos (MENESES et al,
2012, p.20).
Exemplo de sensor:
Fonte: https://www.digitalsecuritymagazine.com/pt/2012/09/19/infaimon-brinda-la-camara-
infrarroja-de-alta-resolucion-raven-640-especifica-para-aplicaciones-de-seguridad/
.
Termal: 5 µm a 1mm.
Fonte: https://pixforce.com.br/tecnologia-integrada-drones/
Micro-Ondas(Radar): Tem comprimento de 1mm a 100cm.
Questão 2:
Exemplos de sensores ativos de profundidade são:
Intel RealSense D400
Kinect
Sonar
Radar
Através de sensores passivos é possível obter uma imagem de profundidade usando dois
sensores, através da comparação de ambas as imagens gera-se uma de profundidade. Essa
extração de parâmetros 3D de uma cena a partir de uma imagem 2D é possível através de
um triangulação em que a profundidade relativa entre pontos correspondentes de duas
imagens é calculada. A triangulação consiste na calculo de um ponto X do espaço 3D, onde
X projeta o par de pontos correspondentes nas imagens, respeitando a restrição epipolar
x’TFx=0. Esse restrição indica que existe dois raios sobre o plano epipolar que transpassam
os pontos correspondentes e o centros projetivos de ambas as câmeras, os quais intersectam
o ponto X no espaço 3D. Um método de triangulação linear para o obtenção de X e dado
pela seguinte expressão: TX=0 onde,
.
Uma solução aproximada para o sistema linear homogêneo TX=0 pode ser obtido através
de uma Decomposição de Valores Singulares.
A visão estéreo é o processo de inferir informação tridimensional e profundidade em
uma cena a partir de duas ou mais imagens.
QUESTÃO 3:
Ótica Básica
Primeiro precisamos estabelecer algumas noções fundamentais de ótica. Quanto a muitos
sistemas visuais naturais, o processo de formação de imagens na visão computacional
começa com os raios de luz que penetram na câmera através de uma abertura angular (ou
pupila) e atingem uma tela ou plano de imagem (figura 2.2), o dispositivo fotossensível da
câmera que registra intensidades de luz. Observe que a maioria desses raios é o resultado
dos reflexos dos raios emitidos pelas fontes de luz e atingindo as superfícies dos objetos.
Focalização de imagem. Qualquer ponto único de uma cena reflete a luz proveniente de
possivelmente várias direções, de modo que muitos raios refletidos pelo mesmo ponto
possam entrar na câmera. Para obter imagens nítidas, todos os raios vindos de um único
ponto de cena, P, devem convergir para um único ponto no plano da imagem, p, a imagem
de P. Se isso acontecer, dizemos que a imagem de P está em foco; se não, a imagem é
espalhada por um círculo. Focar todos os raios de um ponto de cena em um único ponto de
imagem pode ser obtido de duas maneiras:
1. Reduzindo a abertura da câmera para um ponto, chamado de pinhole. Isso significa que
apenas um raio de qualquer ponto pode entrar na câmera e criar uma correspondência um-
para-um entre pontos, raios e pontos de imagem visíveis. Isso resulta em imagens muito
nítidas e não distorcidas de objetos a diferentes distâncias da câmera.
2. Introdução de um sistema óptico composto de lentes, aberturas e outros elementos,
explicitamente projetado para fazer com que todos os raios vindos do mesmo ponto 3-D
convergem para um único ponto de imagem.
Uma desvantagem óbvia de uma abertura pinhole é o seu tempo de exposição; isto é,
quanto tempo o plano da imagem recebe luz. Qualquer dispositivo fotossensível (filme de
câmera, sensores eletrônicos) precisa de uma quantidade mínima de luz para registrar uma
imagem legível. Como um orifício permite pouca luz na câmera por unidade de tempo, o
tempo de exposição necessário para formar a imagem é muito longo (tipicamente vários
segundos) para ser de uso prático. Os sistemas óticos, ao contrário, podem ser ajustados
para trabalhar sob uma ampla faixa de condições de iluminação e tempos de exposição (o
tempo de exposição é controlado por um obturador).
Intuitivamente, um sistema óptico pode ser considerado como um dispositivo que visa
produzir a mesma imagem obtida por uma abertura pinhole, mas por meio de uma abertura
muito maior e um menor tempo de exposição. Além disso, um sistema óptico aumenta o
poder de captação de luz.
Lentes Finas. Os sistemas ópticos padrão são bastante sofisticados, mas podemos aprender
as ideias básicas do sistema óptico mais simples, a lente fina. O comportamento óptico da
lente (figura 2.3) é caracterizado por dois elementos: um eixo, chamado de eixo óptico,
passando pelo centro da lente, O, e perpendicular ao plano; e dois pontos especiais, Ft e Fr,
chamados foco esquerdo e direito, colocados no eixo óptico, nos lados opostos da lente, e
na mesma distância de O. Essa distância, chamada de distância focal da lente, é geralmente
indicada por f.
Por construção, uma lente fina desvia todos os raios paralelos ao eixo óptico e vem de um
lado para o foco do outro lado, como descrito por duas propriedades básicas.
-------------
Lente fina: propriedades básicas
1. Qualquer raio que entra na lente paralelo ao eixo de um lado passa pelo foco do outro
lado.
2. Qualquer raio que entra na lente a partir do foco de um lado surge paralelo ao eixo do
outro lado.
A equação fundamental das lentes finas. Nossa próxima tarefa é derivar a equação
fundamental das lentes finas das propriedades básicas 1 e 2. Considere um ponto P, não
muito longe do eixo óptico, e seja Z + f a distância de P da lente ao longo do eixo óptico
(figura 2.4). Por suposição, uma lente fina foca todos os raios de P no mesmo ponto p.
Portanto, podemos localizar p intersectando apenas dois raios conhecidos e não precisamos
nos preocupar em traçar o caminho de nenhum outro.
O raio que passa pelo centro da lente, O, chamado de raio principal, passa por um reflexo
indefinido.
Campo de visão. Uma última observação sobre ótica. Seja d o diâmetro efetivo da lente,
identificando a porção da lente realmente alcançável pelos raios de luz.
Figura 2.4 Imagem por uma lente fina. Observe que, em geral, uma lente real tem duas distâncias focais
diferentes, porque as curvaturas de suas duas superfícies podem ser diferentes. A situação descrita aqui é um
caso especial, mas é suficiente mais leituras no final deste capítulo para mais informações sobre ótica.
O diâmetro efetivo da lente e a distância focal determinam o campo de visão da lente, que é
uma medida angular da porção do espaço 3-D realmente visto pela câmera. Costuma-se
definir o campo de visão w como metade do ângulo subtendido pelo diâmetro da lente visto
do foco:
(2.3)
Essa é a quantidade mínima de ótica necessária para nossos propósitos. Modelos óticos de
dispositivos de imagem reais são muito mais complicados do que o nosso tratamento de
lentes finas (e ideais); problemas e fenômenos não considerados aqui incluem a aberração
esférica (desfocagem de raios não-paraxiais), a aberração cromática (desfocagem diferente
de raios de cores diferentes) e a focalização de objetos a diferentes distâncias da câmera 4.
4
A equação fundamental das lentes implica que os pontos de cena a diferentes distâncias da lente entram em foco em
diferentes distâncias da imagem. Os sistemas de lentes ópticas de câmeras reais são projetados de modo que todos os
pontos dentro de um determinado intervalo de distâncias sejam visualizados no plano da imagem ou próximos a ela e,
portanto, de forma aceitável em foco. Esse intervalo é chamado de profundidade de campo da câmera.
Radiometria Básica
A radiometria é a parte essencial da formação da imagem relacionada com a relação entre
as quantidades de energia luminosa emitida por fontes de luz; refletida de superfícies e
registrada por sensores. Vamos usar conceitos radiométricos para perseguir duas objetivas:
1. modelar quanto da luz iluminadora é refletida pelas superfícies dos objetos;
2. modelar quanto da luz refletida realmente atinge o plano da imagem da câmera.
Definições Começamos com algumas definições, ilustradas na figura 2.5 e sumarizadas
como seguidas:
------------------
Irradiação da imagem e brilho da cena
A irradiância da imagem é a potência da luz, por unidade de área e em cada ponto p do
plano da imagem.
A radiância da cena é a potência da luz, por unidade de área, idealmente emitida por cada
ponto P de uma superfície no espaço 3-D em uma dada direção d.
-----------------
O ideal refere-se ao fato de que a superfície na definição do brilho da cena pode ser a
superfície iluminada de um objeto, a superfície radiante de uma fonte de luz ou mesmo uma
superfície fictícia. Então radiance de cena de termo denota o brilho total emitido por um
ponto; às vezes a radiância se refere à energia irradiada de uma superfície (emitida ou
refletida), enquanto a irradiância se refere à energia incidente em uma superfície.
Reflexão de Superfície e Modelo Lambertiano. Um modelo do modo como uma
superfície reflete a luz incidente é chamado de modelo de refletância de superfície. Um
bem conhecido é o modelo lambertiano, que assume que cada ponto de superfície se apega
igualmente brilhante de todas as direções de visualização. Isso se aproxima muito bem do
comportamento de superfícies rugosas e não-especulares, bem como vários materiais como
tinta e papel fosco. Se representarmos a direção e a quantidade de luz incidente por um
vetor I, a radiância da cena de uma superfície lambertiana ideal, L, é simplesmente
proporcional ao produto escalar entre I e a unidade normal à superfície, n:
L = pI n (2.4)
com p> 0 uma constante chamada albedo da superfície, que é típica do material da
superfície. Também assumimos que Itn é positivo; isto é, a superfície está voltada para a
fonte de luz. Essa é uma condição necessária para o raio de luz atingir P. Se essa condição
não for atendida, a radiância da cena deve ser definida como 0.
Usaremos o modelo lambertiano em várias partes deste livro; por exemplo, ao analisar
sequências de imagens e calcular formas a partir do sombreado. Intuitivamente, o modelo
lambertiano baseia-se no cancelamento exato de dois fatores. Negligenciando termos
constantes, a quantidade de luz que atinge qualquer superfície é sempre proporcional ao
cosseno do ângulo entre o iluminante e a superfície normal n (isto é, a área efetiva da
superfície como vista da direção do iluminante). De acordo com o modelo, uma superfície
lambertiana reflete a luz em uma determinada direção d proporcionalmente ao cosseno de
O, o ângulo entre d e n. Mas como a área da superfície vista da direção d é inversamente
proporcional a cosO, os dois fatores cosO se cancelam e não aparecem em (2.4).
Vinculando Radiância de Superfície e Irradiação de Imagem. Nossa próxima tarefa é
ligar as quantidades de luz refletidas pelas superfícies, L, e registradas pelo sensor de
imagens, E.
______
Suposições e declaração do problema
Dada uma lente fina de diâmetro d e comprimento focal f, um objeto na distância Z da
lente, e um plano de imagem na distância Z 'da lente, com f, Z e Z' como em (2.1), encontre
a relação entre a irradiância da imagem e o brilho da cena.
_______
A equação (2.13) diz que a iluminação da imagem em p diminui à medida que a quarta
potência do cosseno do ângulo se forma pelo raio principal através de p com o eixo óptico.
No caso de pequena abertura angular, esse efeito pode ser negligenciado; portanto, a
irradiância da imagem pode ser considerada como uniformemente proporcional ao brilho da
cena sobre todo o plano da imagem.
A iluminação não uniforme prevista por (2.13) é difícil de ser notada em imagens comuns,
porque o principal componente das mudanças de brilho é geralmente devido ao gradiente
espacial da irradiância da imagem. Você pode tentar um experimento simples para verificar
o efeito previsto por (2.13), adquirindo uma imagem de uma superfície lambertiana
iluminada por luz difusa.
A equação fundamental da formação da imagem radiométrica também mostra que a
quantidade f / d, chamada de f-number, influencia a quantidade de luz coletada pela
câmera: quanto menor o número f, maior a fração de L que atinge o plano da imagem. O
número F é uma das características da ótica. Como mostrado por (2.13), a irradiância da
imagem é inversamente proporcional ao quadrado do número f.
5
Você deve vincular essas definições de distância focal e eixo óptico com aquelas na seção
Note que (2.14) são não lineares por causa do fator 1 / Z, e não preservam as distâncias
entre os pontos (nem mesmo até um fator de escala comum), ou os ângulos entre as linhas.
No entanto, eles mapeiam linhas em linhas.
A câmera de perspectiva fraca. Uma aproximação clássica que gira (2.14) em equações
lineares é o modelo de câmera de perspectiva fraca. Este modelo requer que a distância
relativa ao longo do eixo óptico, & z, de quaisquer dois pontos de cena (isto é, a
profundidade da cena) seja muito menor que a distância média, ~ Z, dos pontos da câmera
de visualização. Neste caso, para cada ponto de cena, P, podemos escrever
Estas equações, (2.15), descrevem uma sequência de duas transformações: uma projeção
ortográfica, na qual os pontos da palavra são projetados ao longo de raios paralelos ao eixo
óptico, isto é,
x=X
y=Y
Seguido por escala isotrópica pelo fator f / Z’’. A Seção 2.4 mostra que este e outros
modelos de câmeras também podem ser derivados em uma notação de matriz compacta.
Questão 4:
Segundo Gonzalez e Woods(2010, p.34) “A digitalização dos valores de coordenada é
chamada de amostragem. A digitalização dos valores de amplitude é chamada de
quantização.”
Definido por Marques Filho e Viera Neto(1999, p.22) a amostragem basicamente
transforma uma imagem analógica em uma matriz de M por N ponto, os quais chamamos
de pixel:
Questão 5:
Questão 6:
Como apresentado, a entrada é constituída por uma imagem (I) e dois parâmetros: limiar
(є) . Também é definido o tamanho da janela (autovalores), [ 2N +1] pixels. O valor do
limiar (є) pode ser estimado a partir do histograma de 𝜆2 . Já para a vizinhança não há um
critério bem definido para o tamanho da janela, mas experiências indicam que esse valor
pode variar de 2 a 10, na maioria dos casos (TRUCCO; VERRI, 1998).
Questão 7:
A estimação da geometria epipolar trata de estimar uma matriz essencial E e uma matriz
fundamental F que permitem a associação de linhas epipolares na imagem da direita com
sua correspondente na imagem da esquerda.
temos que:
Então, a matriz E, associa o ponto pl , na imagem esquerda, à linha projetiva E.pl que passa
por pr e pelo epipolo er .
Deve-se observar que pl e pr não são dados em pixels, mas nos sistemas de coordenadas
das câmeras esquerda e direita, respectivamente. O mapeamento entre pontos p no sistema
de coordenadas da câmera e p, dado em pixel, é obtido por p = M.p, onde
Questão 8:
Questão 9:
Classificador linear: a combinação linear dos atributos separa os objetivos nas classes
estabelecidas.
Classificador quadrático: as amostras são separadas por meio da função quadrática dos
atributos. Modelos paramétricos ou classificadores paramétricos tem uma série de
vantagens, em especial, pode-se destacar que a regra de decisão resultante é robusta e, caso
a hipótese seja violada, a degradação do desempenho do classificador será gradual.
Já em relação ao modelo Part-Based, consiste em uma ampla casse de algoritmo de
detecção, onde várias partes de uma imagem são utilizadas, separadamente, para determinar
objetos de interesse. Um modelo muito conhecido é o constellation. Esse modelo consiste
em procurar um pequeno número de características e posições relativas e assim, determinar
se o objeto de interesse está presente na imagem. O constellation é considerado um
modelo probabilístico para reconhecimento de objeto em nível de categoria. Assim como
diversos outros modelos baseados em parte geométricas, o constellation tenta representar
uma classe de objeto por um conjunto de N partes sob restrições geométricas mútuas.
Diferentemente do modelo "bag-of-words", o qual desconsidera a explicitamente a
localização dos recursos da imagem, bem como as relações geométricas entre diferentes
partes da imagem.
Segmentação por borda: após a converter a imagem RGB para escala de cinza, aplica-se
a segmentação por binarização ( removendo o segundo plano) e, consequentemente, um
detector de borda (Cany, Sobel e Filtro Laplaciano ). Tal algoritmo visa identificar o
gradiente, ou seja, variações abruptas na intensidade dos pixels de um determinado objeto.
Segmentação por cor: permite separar os objetos de interesse por uma cor específica. Nesta
caso, o espaço de cor HSV é muito utilizado, pois possui informações referente à cor
(matiz) em um único canal. O método apresentado inRange, apresentado na biblioteca
OpenCV pode ser utilizado para aplicação desse procedimento.
Segmentação por movimento: consiste em identificar objetos que se deslocam entre uma
captura e outra. A ferramenta OpenCV apresenta um método bastante eficaz para realizar
essa tarefa, o subtract. A subtração entre duas imagens ( antes e depois) irá nos fornecer o
objeto de interesse. Os demais pixels que praticamente não apresentaram mudanças nas
intensidades são considerados como segundo plano da imagem (Backgroud). Tais pixels
serão”apagados”, ou seja, considerados como preto (0) ou branco (255) após o
procedimento. A subtração de segundo plano é uma das principais etapas de pré-
processamento em muitos aplicativos baseados em visão computacional. A figura 21,
apresenta o resultado da aplicação do algoritmo BackgroundSubtractorMOG, baseado em
segmentação Background e Foreground, aprimorado para acompanhamento (rastreamento)
em tempo real. Tal algoritmo utiliza um método para modelar cada pixel do Background
por uma mistura de distribuições K Gaussianas ( K = 3 a 5). Os pesos da mistura
representam as proporções de tempo que essas cores permanecem na cena.
1.Background Initialization;
2.Background Update.
Questão 10.
Referencias:
Gonzalez, R. C., & Woods, R. E. (1959). Digital Image Processing (2nd Revised Edition).
In Electrolyte Solutions (2nd Revised Edition). https://doi.org/10.2307/1574313
Szeliski, R. (2013). Computer vision: algorithms and applications. Choice Reviews Online,
48(09), 48-5140-48–5140. https://doi.org/10.5860/choice.48-5140