Sunteți pe pagina 1din 22

2

Sistema de Detección de Objetos con


Tensorflow y OpenCV
en Raspberry Pi 3B+
I. INTRODUCCION
para aplicaciones Robóticas
En el área de procesamiento de imágenes y con ayuda de algoritmos de,
reconocimiento de objetos comúnmente se obtiene la intensidad de la imagen
(escala de grises) con la finalidad de diferenciar las regiones de los objetos y el
fondo. En el presente documento se explica algunos conceptos teóricos para
identificar objetos la adquisición de los datos se consigue por medio de dispositivos
como secuencias de imágenes, vistas desde varias cámaras de video o datos
multidimensionales desde un escáner, en donde se puede evidenciar trabajos
relacionados
En muchas aplicaciones basadas en la visión artificial, se utiliza la detección de
movimiento. Por ejemplo, cuando queremos contar las personas que pasan por un
determinado lugar o cuántos coches han pasado por un peaje. En todos estos
casos, lo primero que tenemos que hacer es extraer las personas o vehículos que
hay en la escena.
Existen diferentes técnicas, métodos y algoritmos que posibilitan la detección de
movimiento. Al igual que en otras materias, en la visión artificial no hay casos
genéricos. Dependerá de cada situación usar uno u otro, este artículo fue
elaborado como una guía para poder implementar la detección de objetos
empleando un Raspberry Pi 3b+.
El reconocimiento de objetos se está volviendo cada vez más preciso, hasta el
punto de reducir la tasa de error al 6,6%. Desde el año 2010, el evento Large
Scale Visual Recognition Challenge acoge periódicamente los últimos avances
en reconocimiento de imágenes. La última edición ha estado dedicada al
reconocimiento de objetos dentro de las imágenes y el nivel de precisión
demostrado se ha duplicado respecto al anterior encuentro, mientras que la tasa de
error se ha reducido a la mitad. Citando estos progresos los organizadores han
definido el evento de este año como histórico, haciendo hincapié en el gran salto de
rendimiento.
2
1.1 Visión Artificial .- Se puede definir la “Visión Artificial” como un campo de la
“Inteligencia Artificial” que, mediante la utilización de técnicas adecuadas,
permite la obtención, procesamiento y análisis de cualquier tipo de información
espacial obtenida a través de imágenes digitales .Las técnicas de visión artificial
están presentes desde hace más de 40 años, pero no fue hasta principios de la
década del 2000 que empezaron a aplicarse de modo masivo. Los primeros
algoritmos funcionan utilizando características codificando manualmente los
objetos para hacer un reconocimiento, por ejemplo, se codificaban patrones para
la nariz y los ojos para la detección de un rostro humano. Actualmente, en vez de
codificar manualmente las características de los objetos que queremos detectar,
lo que necesitamos es una gran cantidad de datos etiquetados para “entrenar”
un clasificador basado en redes neuronales. El gran avance en lo últimos años
en la precisión de las técnicas de Deep Learning, se debe en parte debido al
incremento en la capacidad de cómputo, y por otra parte, a la mayor
disponibilidad de grandes sets de datos para entrenar las redes neuronales. Por
otra parte, las primeras aplicaciones de visión artificial, se hacía solamente una
clasificación de imágenes, partiendo de una entrada de una imagen, podemos
obtener un resultado textual de la clasificación de la imagen, por ejemplo,
“perro”, “persona”, “bicicleta”. Las nuevas técnicas de visión artificial no son sólo
“clasificadores”, sino que también son “detectores”. Esto significa que además de
la clase del objeto, podemos obtener su ubicación relativa a otros objetos y su
tamaño, colocando en un cuadro delimitador .Éstas técnicas de “detección” de
objetos, fueron mejorando con los años, y actualmente podemos obtener
detecciones de objetos sobre imágenes en un tiempo aproximado de 20
milisegundos, utilizando hardware de costo relativamente accesible. Esto implica
que se puede hacer detección de video en tiempo real a una velocidad de 50
cuadros por segundo

II. METODOLOGIA
Hoy en día, la visión artificial permite identificar personas, lugares y objetos en
imágenes con una precisión equivalente o superior a la capacidad humana y con
mayor velocidad y eficiencia. Los métodos que utilizan Deep Learning han obtenido
2
una performance superior a otros enfoques en el campo de reconocimiento de
imágenes.

El reconocimiento como la acción de clasificar, categorizar o conceptuar un


determinado estímulo como miembro de una clase de estímulos. El proceso de
reconocimiento es más complejo que los de detección o discriminación:

 El único requisito en la detección es advertir la presencia de un estímulo.

 En la discriminación para poder percibir las semejanzas y diferencias entre


estímulos, se añadía un requisito de memoria.

 El reconocimiento requiere el recuerdo de una o varias clases de estímulos.


También requiere la asignación de significado al objeto, ya que la acción de
clasificar, categorizar o conceptuar depende más del significado que se asigna al
objeto que de las características físicas del mismo.

El proceso de reconocimiento es fundamental para el desenvolvimiento de los


seres humanos en su interacción con el medio ambiente.

En la actualidad no se dispone de ningún modelo de reconocimiento que pueda


resultar tan potente y eficaz como el sistema de reconocimiento visual de los seres
humanos.

2.1 Implementación del Sistema

El presente trabajo se basa en que paso a paso se configure la API de detección y


reconocimiento de objetos de TensorFlow en la Raspberry Pi 3B+ siguiendo los
pasos presentados como, se podrá usar su Raspberry Pi para realizar la
detección de objetos en transmisiones de video en vivo desde una cámara web
Picamera o USB.

El objetivo principal del proyecto es generar una plataforma para la detección de


objetos en tiempo real para distintas ámbitos. Existen ya modelos entrenados y
listos para usar, para reconocer objetos comunes, como, “persona, auto, bicicleta,
camión”. En el caso de necesitar el reconocimiento de objetos específicos que no
se encuentren en los modelos pre-entrenados, sólo se necesitaría contar con un
2
set de datos etiquetados suficientemente grande y diverso, con imágenes de los
objetos que queremos que el sistema reconozca para pre-entrenar la red. El
mecanismo básico consiste en la comparación de la imagen de un objeto con una
representación del objeto almacenada en la memoria.

2.2 Herramientas de Hardware.- Para el desarrollo y la implementación del


sistema de detección y reconocimiento de objetos se empleo las siguientes
herramientas de Hardware:

 Placa Raspberry Pi 3b+

El proyecto de Raspberry Pi fue ideado en 2006 pero no fue lanzado al


mercado hasta febrero de 2012. La idea fue desarrollada por un grupo de
la Universidad de Cambridge y su misión fue fomentar la enseñanza de las
ciencias de la computación en los niños. La Raspberry Pi, es una excelente
herramienta para aprender electrónica y programación. En mayo de 2009,
la fundación Raspberry Pi fue fundada en Caldecote, South
Cambridgeshire, Reino Unido como una asociación caritativa que es
regulada por la Comisión de Caridad de Inglaterra y Gales.

Raspberry Pi cuenta con una floreciente comunidad de desarrolladores,


siempre dispuestos a compartir paso a paso las nuevas características que
van encontrándole a la placa. Uno de los avances mas reseñables que se
han efectuado hasta la fecha es la integración en un robot. Es una tarea
2
ciertamente compleja, pero es la funcionalidad mas espectacular de
Raspberry Pi: dotar de inteligencia a los robots.

Los lenguajes de programación con los cuales es compatible Raspberry Pi


son los siguientes:

 Scratch: Scratch es un lenguaje de programaci´on de nivel de entrada que


viene de serie con la distribuci´on Raspberry Pi, Raspbian.
 Python: Python es uno de los principales lenguajes de programaci´on que
se encuentran en la Raspberry Pi. Python lleva el nombre de Monty Python
Flying Circus, el equipo de comedia que nos trajo Life of Brian (lo que
significa que Raspberry Pi se llama indirectamente también Monty Python).
 HTML5: HTML es el lenguaje de marcado que hace que la World Wide
Web haga un marcado
 Javascript: JavaScript es un lenguaje de scripting que funciona junto con
HTML para agregar interactividad a los sitios web.
 JQuery: JQuery es la biblioteca JavaScript mas popular, con jQuery, se
pueden crear interfaces web y componentes interactivos con solo unos
pocos de conocimientos de JavaScript.
 Java: Cuando Java llegó a la escena, fue recibido con los brazos abiertos
por los desarrolladores como el primer lenguaje de programación con el
que se podría escribir un programa que se ejecuta en cualquier sistema
operativo.
 El lenguaje de programación en C fue escrito por Dennis Ritchie,
utilizando el lenguaje B de Brian Kernighan como su modelo. El lenguaje de
programación en C es uno de los idiomas más utilizados en el mundo,
utilizado en todo, desde sistemas operativos completos hasta lenguajes de
programación simples.
 C++: C++ fue desarrollado por el desarrollador danés Bjarne Stroustrup
como una forma de mejorar el lenguaje de programación el lenguaje de
programación en C. C ++ se utiliza en un millón de circunstancias
diferentes, incluyendo diseño de hardware, software integrado .

Los sistemas operativos que soporta la placa son los siguientes

 Raspbian.
2
 Ubuntu MATE
 Kali Linux
 Arch Linux ARM
 CentOS
 OpenELEC y OSMC
 Elastix
 Webcam Genius “Facecam 2020”

 MiniTeclado Mouse Portátil “Kuman”

 Pantalla de Tv o Monitor de PC.


2

.3 Herramientas de Software.- Para la implementación del sistema de


detección y reconocimiento de imágenes empleamos los siguientes software:
 Sistema operativo Raspbian
La versión empleada de Raspbian ha sido Raspbian Stretch, la versión
actualizada de Jessie. Las diferencias entre Jessie y Stretch son, en su
mayoría, optimizaciones bajo el techo, y realmente no debería notar
ninguna diferencia en el uso cotidiano del escritorio y las aplicaciones,
 Lenguaje de programación Python:
La versión utilizada ha sido la 3.7, por problemas de compatibilidad con
TensorFlow y la Raspberry Pi. Python 3.7.0 fue lanzado recientemente está
programado para ser la ´ultima versión principal de la serie 3.x antes de
que pase a un periodo de mantenimiento extendido. En cuanto a Python,
es un lenguaje de programación poderoso y fácil de aprender. Cuenta con
estructuras de datos eficientes y de alto nivel y un enfoque simple pero
efectivo a la programación orientada a objetos. La elegante sintaxis de
Python y su tipado dinámico, junto con su naturaleza interpretada, hacen
de ´este un lenguaje ideal para scripting y desarrollo rápido de aplicaciones
en diversas ´áreas y sobre la mayoría de las plataformas.
 TensorFlow:
TensorFlow es una librería de software de código abierto lanzada en 2015
por Google para facilitar a los desarrolladores diseñar, construir y capacitar
modelos de Deep Learning. TensorFlow se originó como una librería interna
2
que los desarrolladores de Google utilizaron para construir modelos en la
empresa, y se espera que se agreguen funciones adicionales a la versión
de código abierto. Aunque TensorFlow es solo una de varias opciones
disponibles para los desarrolladores, se opta por usarla aquí debido a su
diseño inteligente y fácil . TensorFlow es una de las librerías ampliamente
utilizadas para implementar el Machine Learning y otros algoritmos que
implican un gran número de operaciones matemáticas. TensorFlow es una
de las librerías más populares de Machine Learning en GitHub. Google usa
TensorFlow para implementar el Machine Learning en casi todas las
aplicaciones. Por ejemplo, si está utilizando fotos de Google o búsqueda de
voz de Google, está usando indirectamente modelos de TensorFlow, que
trabajan en grandes grupos de hardware de Google y son poderosos en
tareas de percepción.
El componente central de TensorFlow es el grafico computacional y los
tensores que atraviesan todos los nodos a través de los bordes. Hagamos
una breve introducción a cada uno de ellos.
Los tensores, matemáticamente, son vectores N-dimensionales, significa
que un Tensor se puede usar para representar conjuntos de datos N-
dimensionales:

La siguiente figura muestra algunos tensores simplificados con


dimensiones mínimas. A medida que las dimensiones siguen aumentando,
la representación de datos se vuelve cada vez mas compleja. Por ejemplo,
si tomamos un Tensor de la forma (3x3), entonces simplemente puedo
llamarlo una matriz de 3 filas y columnas. Si selecciono otro Tensor de
forma (1000x3x3), puedo llamarlo como un vector o conjunto de 1000
2
matrices de 3x3. Aquí llamamos (1000x3x3) como la forma o Dimensión del
Tensor resultante. Los tensores pueden ser una constante o una variable

 OpenCV:
OpenCV es una librería inicialmente creada para C/C++ pero popularizada
a Python. La librería nos permite manipular imágenes para aplicar técnicas
de Visión Computacional como cambiar el espacio colores, aplicar filtros
gaussianos, crear máscaras, detectar bordes, detectar rostros, etc.
OpenCV se basa en la representación de una imagen como una matriz de
pixeles. OpenCV usa el sistema de colores BGR en el que podemos
describir cada pixel como la tupla (b, g, r) dónde definimos la intensidad de
color para cada canal, siendo b: azul, g: verde y r: rojo con valores de 0 a
255.

3. Experimentaciones:

Lo primero es obtener la microsd


que vamos a introducir en el
Raspberry Pi 3b+ e insertarla en la
ranura del dispositivo para poder
insertarla en el ordenador se
debe tomar en cuentas que si se inserta en el ordenador, y la primera tarea a
realizar será un formateo rápido para asegurar que no hay nada en ella.

Se va a hacer una explicación de la puesta a punto de la Raspberry Pi para a


empezar a programarla desde el ordenador, que empieza con la conexión de
todos los dispositivos implicados, pasa por la actualización y configuración del
sistema operativo Raspbian.

La instalación e implementación del sistema esta explicado en el manual que


esta en el Anexo 1.

Una vez realizada la instalación e implementación procedemos a probar si


está funcionando de manera adecuada, luego de haber realizado Lo primero
que se va a realizar va a ser la conexion de la Raspberry Pi con la cámara a la
2
televisión (mediante un cable HDMI), la cual esta cerca del router. Se
conectara a esta un teclado, un ratón .Ya podemos enchufar la Raspberry Pi a
la corriente y empezar a utilizarla mediante la elección del canal HDMI de la
televisión o un monitor de pc.

Bien, ahora todo está configurado para realizar la detección de objetos en la


Pi ,la secuencia de comandos de Python en este repositorio,
Object_detection_picamera.py, detecta objetos en feeds en vivo desde una
cámara web Picamera o USB. Básicamente, la secuencia de comandos
establece rutas al modelo y al mapa de etiquetas, carga el modelo en la
memoria, inicializa la Picamera y luego comienza a realizar la detección de
objetos en cada fotograma de video desde la Picamera.

Si está utilizando un Picamera, asegúrese de que esté habilitado en el menú


de configuración de la Raspberry Pi.

Ahora procedemos a ejecutar el comando que permite el funcionamiento del


algoritmo con la siguiente sentencia dentro del promt del Raspberry Pi

A continuación esperamos a que se compile el programa y experimentar los


primeros identificaciones del sistema

Esta es la primera prueba del sistema donde podemos observar que no existe
errores de compilación y se ejecuta con normalidad el proceso

 Galería de imágenes de objetos detectados


2

Reconocimiento de persona

Reconocimiento de animales
2

Medios de Transporte

Objetos varios

Estos son ejemplos de los distintos objetos que el sistema reconocio en las diferentes
pruebas que se realizo , se pudo observar que la deteccion de objetos tiene una
presion de 80 % con las caracteristicas para ser detectdo es que la imagen o el objeto
este relativamente cerca y que se encuentre en ul lugar con iluminacion.

Una desventaje es que el procesamiento de los FPs es de aproximadamente 0.70 a


0.91 de fotogramas por segundo lo que provoca que el sistema reaccione con un
lentitud de promedio medio minuto en la deteccion y reconocimiento del objeto.
2
Teniendo unna ventaja en la identificacion de personas que funciona de manera optima
ya que el proceso lo realiza de forma casi inmediate .

III. RECOMENDACIONES
Se llego a poder implementar el sistema pero existe puntos a ser mejorados como
el tiempo de procesamiento de los FPS ya que esto dificulta una detección mas
rápida , por otra parte el sistema es excelente en la detección de personas
teniendo un rango detección de 15 a 20 segundos en promedio de detección a
comparación de otros objetos que los detecta pero tiene cierta dificultad en el
procesamiento de datos .

La utilidad de este sistema es muy grande pudiendo ser implementado en robots


con lo cual llegaría a constituir sistemas robustos de gran utilidad en distintas áreas
de la Robótica.

IV. CONCLUSIONES

Una de las diferencias mas significativas entre los PC´s que usamos para nuestras
tareas básicas de estudio o trabajo en relación con el Raspberry pi es q su
sistema operativo al contrario de usar Windows o Apple OS esta pequeña placa
usa una distribución Linux con base en Debian , el cual es de código abierto lo que
nos permite hacer cambios en el código fuente del sistema.

Para seguir en esta línea de investigación de Deep learning ya que se


complementa y es posible adaptarla para tareas especificas con el entrenamiento
de propios modelos complementando a las aplicaciones personalizando el
reconocimiento de objetos a cosas especificas que se adecuen a proyectos
complementando con la parte robótica de inclusive se podría decir que se podría
dotar de visión inteligente a los robots y con esto dando un gran paso en el
desarrollo de nuevos robots con mejores características y proyectos grandes.

De manera concreta se llego a cumplir con el objetivo ya que si se logro la


detección y reconocimiento de objetos en tiempo real.
2
Por otro lado la desventaja mas grande que se identifico es que es sistema
presenta lentitud en el procesamiento de imágenes la razón es el hardware en el
cual se implemento si bien es portable y fácil instalación y comprensión es muy
débil para aplicaciones mas robustas su procesamiento y tiempo de compilación
son lentos , lo ideal seria futuro implementarlo en sistemas operativos mas
veloces.
2

ANEXO

MANUAL DE CONFIGURACION DEL SISTEMA DE RECONOCIMIENTO DE


OBJETOS CON RASPBERRY PI

PASO 1.
Instalar el sistema operativo Raspberry Pi

Lo primero es obtener la microsd que vamos a introducir en la Raspberry Pi 3 e


insertarla en una macrosd para poder insertarla en el ordenador luego se inserta
en el ordenador, y la primera tarea a realizar sera un formateo rapido para
asegurar que no hay nada en ella, por ultimo es montar la imagen, y en este
caso se va a emplear el software win32Diskmaker , se carga la imagen y nos
aseguramos que se elia el drive correcto y se selecciona Write con eso se
finaliza ,se saca la memoria y se la introduce al raspberry pi 3b+.

PASO 2.
Actualiza la Raspberry Pi Raspberry Pi necesita actualizarse completamente.
Abra un terminal y emita:
2
Dependiendo de cuánto tiempo haya pasado desde que actualizó su Pi, la
actualización podría durar entre un minuto y una hora.
PASO 3
Instalar TensorFlow A continuación, instalaremos TensorFlow. En el directorio /
home / pi, cree una carpeta llamada 'tf', que se usará para guardar todos los
archivos de instalación de TensorFlow y Protobuf, y cd en ella:

En el repositorio de GitHub "TensorFlow for ARM" se encuentra disponible un


archivo de rueda precompilado compatible con Rapsberry Pi para instalar la
última versión de TensorFlow . El usuario de GitHub, lhelontra, actualiza el
repositorio con paquetes de instalación precompilados cada vez que se lanza un
nuevo TensorFlow. Gracias lhelontra! Descargue de la siguiente dirección:
https://github.com/lhelontra/tensorflow-on-
arm/releases/download/v1.8.0/tensorflow-1.8.0-cp35-none-linux_armv7l.whl
Ahora que tenemos el archivo, instale TensorFlow emitiendo:

TensorFlow también necesita el paquete LibAtlas. Instálelo emitiendo (si este


comando no funciona, emita "sudo apt-get update" e inténtelo de nuevo):

Mientras estamos en ello, instalemos otras dependencias que serán utilizadas


por la API de detección de objetos TensorFlow. Estos se enumeran en
las instrucciones de instalación en el repositorio GitHub de detección de objetos
de TensorFlow. Posiblemente tropiece con un problema para lo cual ejecute lo
siguiente:

Con esto ya tendríamos instalado todo lo necesario para Tensorflow.


PASO 4
Instalar OpenCV
Los ejemplos de detección de objetos de TensorFlow suelen utilizar matplotlib
para mostrar imágenes, pero prefiero usar OpenCV porque es más fácil trabajar
con él y es menos propenso a errores. Los scripts de detección de objetos en el
2
repositorio de GitHub de esta guía utilizan OpenCV. Por lo tanto, tenemos que
instalar OpenCV.
Para que OpenCV funcione en la Raspberry Pi, hay bastantes dependencias que
deben instalarse a través de apt-get. Si alguno de los siguientes comandos no
funciona, emita "sudo apt-get update" e intente nuevamente

Ahora que tenemos todos los instalados, podemos instalar OpenCV.

Con todo esto Open CV ya estaría instalado .


PASO 5
Compilar e instalar Protobuf Bueno, aquí viene la parte difícil. La API de
detección de objetos TensorFlow utiliza Protobuf, un paquete que implementa el
formato de datos Buffer de protocolo de Google. Desafortunadamente,
actualmente no hay una manera fácil de instalar Protobuf en la Raspberry Pi.
Tenemos que compilarlo desde la fuente y luego instalarlo. Afortunadamente, ya
se ha escrito una guía sobre cómo compilar e instalar Protobuf en la Pi.
Primero, obtenga los paquetes necesarios para compilar Protobuf desde la
fuente.

Luego descargue la versión protobuf de su repositorio GitHub emitiendo:

Si hay disponible una versión más reciente de protobuf, descárgala. Descomprime el


archivo y el cd en la carpeta:

Configure la compilación emitiendo el siguiente comando (tarda aproximadamente 2


minutos):

Construye el paquete emitiendo:

El proceso de construcción tomó 61 minutos en mi Raspberry Pi. Cuando se termine,


emita:
2

Este proceso toma aún más tiempo, llegando a los 107 minutos en mi Pi. Según otras
guías que he visto, este comando puede salir con errores, pero Protobuf todavía
funcionará. Si ves errores, puedes ignorarlos por ahora. Ahora que está construido,
instálalo emitiendo:

Luego muévase al directorio de python y exporte la ruta de la biblioteca:

Finalmente, emita:

Ahora Protobuf está instalado en la Pi. Verifique que esté instalado correctamente
emitiendo el siguiente comando y asegurándose de que publique el texto de ayuda
predeterminado.

Por alguna razón, la Raspberry Pi debe reiniciarse después de este proceso, o


TensorFlow no funcionará. Adelante, reinicia el Pi emitiendo:

PASO 6
Configure la estructura del directorio TensorFlow y la variable
PYTHONPATH. Ahora que hemos instalado todos los paquetes, necesitamos
configurar el directorio TensorFlow. Vuelva a su directorio de inicio, luego cree un
directorio llamado "tensorflow1" y cd en él.
2

Descargue el repositorio de tensorflow desde GitHub emitiendo:

A continuación, debemos modificar la variable de entorno PYTHONPATH para que


apunte a algunos directorios dentro del repositorio de TensorFlow que acabamos de
descargar. Queremos que PYTHONPATH se establezca cada vez que abrimos un
terminal, por lo que tenemos que modificar el archivo .bashrc. Ábrelo emitiendo:

Vaya al final del archivo y, en la última línea, agregue:

Luego, guarde y salga del archivo. Esto hace que se llame al comando "exportar
PYTHONPATH" cada vez que abra un nuevo terminal, por lo que la variable
PYTHONPATH siempre se configurará de manera apropiada. Cierre y vuelva a abrir el
terminal.

Ahora, necesitamos usar Protoc para compilar los archivos del Buffer de Protocolo
(.proto) que usa la API de Detección de Objetos. Los archivos .proto se encuentran en /
research / object_detection / protos, pero necesitamos ejecutar el comando desde el
directorio / research
2

Ahora, descargaremos el modelo SSD_Lite del zoológico del modelo de detección

TensorFlow . El zoológico modelo es la colección de Google de modelos de detección de


objetos pre-entrenados que tienen varios niveles de velocidad y precisión. La Raspberry Pi tiene

un procesador débil, por lo que necesitamos usar un modelo que requiera menos poder de
procesamiento. Descargue el modelo SSDLite-MobileNet y desempaquételo emitiendo:

PASO 7

Detecta objetos Bien, ahora todo está configurado para realizar la detección de
objetos en la Pi! La secuencia de comandos de Python en este repositorio,
Object_detection_picamera.py, detecta objetos en feeds en vivo desde una cámara
web Picamera o USB. Básicamente, la secuencia de comandos establece rutas al
modelo y al mapa de etiquetas, carga el modelo en la memoria, inicializa la Picamera y
luego comienza a realizar la detección de objetos en cada fotograma de video desde la
Picamera.

Si está utilizando un Picamera, asegúrese de que esté habilitado en el menú de


configuración de la Raspberry Pi.
2

Descargue el archivo Object_detection_picamera.py en el directorio object_detection emitiendo:

Wget
https://raw.githubusercontent.com/EdjeElectronics/TensorFlow-Object-Detection-on-the-
Raspberry-Pi/master/Object_detection_picamera.py

Ejecute el script emitiendo:

La secuencia de comandos por defecto utiliza un Picamera adjunto. Si tienes una cámara web

USB, agrega --usbcam al final del comando:

PASO 8

Ejecución Como ultimo paso procedemos con la compiacion y ejecución del sistema
para lo cual recurrimos al siguiente comando

Una vez ejecutados ambos comandos el sistema tarda aproximadamente cerca de 30


sg en compilar y ejecutarse .
2

S-ar putea să vă placă și