Sunteți pe pagina 1din 24

DEPARTAMENTO DE CIENCIAS DE LA COMPUTACIÓN

CARRERA DE TECNOLOGÍAS DE LA INFORMACIÓN


(SISTEMAS E INFORMÁTICA)

TEMA:
“Desarrollo e implementación de una interfaz de usuario para el control de un
vehı́culo aéreo no tripulado en un entorno de realidad aumentada, mediante
gestos corporales y faciales utilizando gafas inteligentes Microsoft HoloLens.”

PLAN DE PROYECTO DE INVESTIGACIÓN

TRABAJO DE TITULACIÓN, PREVIO A LA OBTENCIÓN DEL TÍTULO DE


INGENIERO EN SISTEMAS E INFORMÁTICA

PROPUESTO:
Luis Iván Espı́n Velasco

SANGOLQUÍ
20 de junio de 2018
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Índice
1. TÍTULO DEL PROYECTO 3

2. ÁREA DE CONOCIMIENTO 3

3. ANTECEDENTES 3

4. PLANTEAMIENTO DEL PROBLEMA 4

5. ESTADO DEL ARTE 4


5.1. Planteamiento de la revisión de literatura . . . . . . . . . . . . . . . . . . . . . . 5
5.2. Conformación del grupo de control (GC) y extracción de palabras relevantes para
la investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
5.3. Construcción y afinación de la cadena de búsqueda . . . . . . . . . . . . . . . . . 6
5.4. Selección de estudios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5.5. Elaborar el estado del arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5.5.1. EP01 : An Augmented Reality/Internet of Things Prototype for Just-in-
time Astronaut Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5.5.2. EP02 : Application of Augmented Reality in Mobile Robot Teleoperation 7
5.5.3. EP03 : Flying a drone in a museum an augmented-reality cultural serious
game in Provence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.5.4. EP04 : Natural, Multi-modal Interfaces for Unmanne Systems . . . . . . . 8
5.5.5. EP05 : Mixed reality for robotics . . . . . . . . . . . . . . . . . . . . . . . 8
5.5.6. EP06 : Design and Evaluation of a Natural User Interface for Piloting an
Unmanned Aerial Vehicle . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.5.7. EP07 : Flying Frustum: A Spatial Interface for Enhancing Human-UAV
Awareness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5.5.8. EP08 : Real-time unmanned aerial vehicle 3D environment exploration in
a mixed reality environment . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5.5.9. EP09 : A Mixed Reality Based Hybrid Swarm Control Architecture for
Manned-Unmanned Teaming (MUM-T) . . . . . . . . . . . . . . . . . . . 9
5.6. Caracterı́sticas del estado del arte . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

6. OBJETIVOS 10
6.1. Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6.2. Objetivos Especificos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

7. JUSTIFICACIÓN 10

8. ALCANCE 16

9. DEFINICIÓN DE LA INVESTIGACIÓN 17
9.1. Revisión inicial sistemática de la literatura . . . . . . . . . . . . . . . . . . . . . . 17
9.2. Prototipado rápido: una estrategia alternativa de diseño instruccional . . . . . . 17
9.3. Medición de usabilidad con el del instrumento cuestionario “USE”. . . . . . . . . 17

10.HERRAMIENTAS 18
10.1. Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
10.2. Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Pág. 1/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

11.FACTIBILIDAD DEL PROYECTO 18


11.1. FACTIBILIDAD TÉCNICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
11.2. FACTIBILIDAD OPERATIVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
11.3. FACTIBILIDAD ECONÓMICA . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
11.4. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
11.5. CRONOGRAMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

12.BIBLIOGRAFÍA PRELIMINAR 22

Referencias 22

Índice de figuras
1. Proceso de construcción del estado del arte. . . . . . . . . . . . . . . . . . . . . . 4
2. El continuo de Milgram. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3. Estacion de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4. Gartner Ciclo Hype, Expectativas vs. El paso del tiempo. . . . . . . . . . . . . . 12
5. Las 3 tendecias tecnologicas del Ciclo Hype. . . . . . . . . . . . . . . . . . . . . . 13
6. Gafas Inteligentes de Realidad Aumentada Comerciales. . . . . . . . . . . . . . . 14
7. Ejemplo de escenario de implementación de AR de los robots: UAV, UGV, hu-
manoide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
8. Propuesta de arquitectura de software de HRI en un entorno de AR. . . . . . . . 15
9. Cronograma del proyencto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10. Tareas del proyencto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Índice de tablas
1. Grupo de Control. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. Resultados de busquedas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3. Estudios Seleccionados I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4. Estudios Seleccionados II. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5. Caracteristicas de dispositivos de realidad mixta con forma de gafas. . . . . . . . 14
6. Preguntas de investigación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7. Dispositivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
8. Conjunto de herramientas de desarrollo. . . . . . . . . . . . . . . . . . . . . . . . 18
9. Análisis Económico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Pág. 2/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

1. TÍTULO DEL PROYECTO


“Desarrollo e implementación de una interfaz de usuario para el control de un vehı́culo
aéreo no tripulado en un entorno de realidad aumentada, mediante gestos corporales y faciales
utilizando gafas inteligentes Microsoft HoloLens.”

2. ÁREA DE CONOCIMIENTO
Tecnologı́as de la información y la comunicación.

Gestión de la Información.

• Interacción hombre máquina (HCI).


• Interacción hombre robot (HRI).
• Realidad Aumentada (AR).

3. ANTECEDENTES
Según (Hoenig y cols., 2015) la realidad mixta es una herramienta valiosa para la investi-
gación y desarrollo en rebotica. En su investigación mencionan que la Realidad mixta puede
reducir la brecha entre la simulación e implementación en una combinación de objetos fı́sicos y
virtuales, incluyendo robots, sensores y humanos. Los robots se pueden mejorar con capacidades
virtuales adicionales, o pueden interactuar con los humanos sin compartir espacio fı́sico.

En la actulidad (Kalantari y Rauschnabel, 2018) mencionan que no se ha realizado muchas


investigaciones para comprender la reaccion de los consumidores ante el uso de tecnologı́as móvi-
les que combinan el mundo real con el virtual con forma de gafas. (Karasinski, Joyce, Carroll,
Gale, y Hillenius, 2017) presentan un prototipo móvil para el entrenamiento de astronautas con
interacción hombre máquina (HCI) y realidad aumentada (AR) como herramienta de entrena-
miento. Este prototipo aprovecha las gafas de realidad aumentada Microsoft HoloLens y una red
de sensores personalizados de “Internet en las Cosas”que permite que los procesos operativos
se muestren e interactúen con el usuario en tiempo real. Este visor de procedimientos móviles
permiten la capacitación utilizando hologramas para proporcionar información contextualmente
relevante a los usuarios novatos que están en práctica.

(Ai, Livingston, y Moskowitz, 2016) proponen un sistema de interacción que puede usar 3D
en tiempo real para la exploración del medio ambiente mediante un vehı́culo aéreo no tripulado
(UAV). El método crea un entorno de realidad mixta en el que un usuario puede controlar de
forma interactiva un vehı́culo aéreo no tripulado y visualizar los datos de exploración en tiempo
real. Este método usa una combinación de sensores asequibles que transforma el espacio de
control y visualización desde el vehı́culo aéreo no tripulado hasta la perspectiva del controlador
con diferentes configuraciones de hardware y software, el sistema desarrollado puede ajustarse
para cumplir diferentes necesidades y entornos.

Pág. 3/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

4. PLANTEAMIENTO DEL PROBLEMA


Según (Herrmann y Schmidt, 2018) controlar un vehı́culo aéreo no tripulado tiene un cierto
grado de dificultad, requiere entrenamiento y experiencia. Una posible causa se origina en el
control remoto cuyas funciones resultan complicadas.

Controlar un vehı́culo aéreo no tripulado (UAV) puede resultar desafiante lo cual requiere
de un entrenamiento intensivo para lograr un vuelo estable. Uno de los inconvenientes más co-
munes en los usuarios sin experiencia radica en la carga cognitiva que el control remoto ejerce
en el operador, debido al conjunto de funciones que permiten que el vehı́culo aéreo no tripulado
se desplaze en el aire. Los usuarios dependen de su precisión, destreza y habilidad para ejecutar
diferentes tipos de movimientos desde el control remoto.

Los vehı́culos aéreos no tripulados que son utilizados en el ambiente de la ingenierı́a o la


seguridad están sujetos a la experiencia de los operadores y el ambiente en el que se desenvuelven.
Un ejemplo son los drones que se utilizan en un levantamiento topográfico los cuales tienen un
alto costo económico y requieren de un vuelo estable para cumplir su objetivo. Otro ejemplo
en el ámbito de la seguridad son los drones utilizados para hacer reconocimiento de terrenos
en zonas de conflictos armados. La complejidad de los sistemas que interactúan en los ejemplos
mencionados están propensos a generar una carga de trabajo amplia lo cual puede volverse
inmanejable, contraproducente e incluso peligroso.

5. ESTADO DEL ARTE


Para analizar el estado del arte acerca de la manipulación de vehı́culos aéreos no tripulados
sin el uso del control remoto y en un entorno de realidad mixta, se realizó un proceso de
revisión de literatura inicial basado en las guı́as de revisión sistemática de literatura propuestas
por (Budgen y Brereton, 2006). Las actividades consideradas para este proceso se muestran en
la figura 1 y se describen a continuación.

Figura 1. Proceso de construcción del estado del arte.


Fuente: Elaboración propia

Pág. 4/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

5.1. Planteamiento de la revisión de literatura


En esta fase se realizó una breve descripción del problema de investigación para proporcionar
un contexto para la búsqueda de estudios cientı́ficos; posteriormente se procedió a definir un
objetivo de búsqueda y plantear preguntas de investigación para alinear la búsqueda en relación
al problema de investigación y finalmente se definieron los criterios de inclusión y exclusión.

5.2. Conformación del grupo de control (GC) y extracción de palabras rele-


vantes para la investigación
Según (Petersen, Feldt, Mujtaba, y Mattsson, 2008) un paso fundamental de un mapeo sis-
temático de literatura es definir o delimitar los artı́culos que se consideren relevantes para la
investigación, eliminando aquellos que solo mencionan enfoque substancia de la temática prin-
cipal.

Fue necesaria la participación de al menos cuatro investigaciones. Cada investigación propuso


estudios que podrı́an ser parte del grupo de control. Posteriormente se realizó una validación
cruzada donde se estableció finalmente el grupo de control, el cual se indica en la tabla 1.
Tabla 1

Grupo de Control.
Tı́tulo Cita Palabras Clave
Design and Evaluation of a Natural User Inter- (Hoenig y cols., Natural User In-
face for Piloting an Unmanned Aerial Vehicle 2015) terface, Unmanned
Aerial Vehi-
cle, Augmented
Reality.
A Mixed Reality Based Hybrid Swarm Con- (Das, Doelling, Mixed Reality,
trol Architecture for Manned-Unmanned Tea- Lundberg, Sevil, Control Archi-
ming (MUM-T) y Lewis, 2017) tecture, Manned-
Unmanned.
Real-time unmanned aerial vehicle 3D environ- (Ai y cols., 2016) Unmanned aerial
ment exploration in a mixed reality environment vehicle, Mixed
Reality, Real-time.
Flying Frustum: A Spatial Interface for Enhan- (Li, Cartwright, Unmanned aerial
cing Human-UAV Awareness Shekhar Nitta- vehicle (UAV),
la, Sharlin, y augmented reality,
Costa Sousa, human-robot in-
2015) teraction (HRI),
situational awa-
reness, computer-
supported coopera-
tive work (CSCW).

Fuente: Elaboración propia.

Tras un análisis de los estudios del grupo de control, se seleccionaron las palabras más rele-
vantes respecto al objetivo de la búsqueda, en este caso fueron: “Unmanned aerial vehicle”(UAV)
y “Mixed Reality”.

Pág. 5/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

5.3. Construcción y afinación de la cadena de búsqueda


Con las palabras clave que fueron obtenidas de los artı́culos cientı́ficos del grupo de control
se conformó la cadena de búsqueda: ((“Unmanned aerial vehicle”) and (“Mixed Reality”)) ó
((“Mixed Reality”) and (“Unmanned aerial vehicle”)).

Sin embargo, esta cadena obtuvo un gran número de investigaciones inclusive aquellas que
fueron descartadas. Después de realizar varias pruebas con distintas combinaciones de cadenas,
se ejecutaron las siguientes: ((“Mixed Reality”) and (“Unmanned aerial vehicle”) and (“User
Interface”)) y ((“Mixed Reality”) and (“UAV”) and (“HRI”))). Los resultados obtenidos se
muestran en la tabla 2.
Tabla 2

Resultados de busquedas.
Base Digital “(Mixed Reality) AND “(Mixed Reality) AND “(Mixed Reality)
(Unmanned aerial vehi- (Unmanned aerial vehi- AND (UAV)
cle)” cle) AND (User Interfa- AND (HRI)”
ce)”
Springer 602 237 6
ProQuest 271 50 0
Scopus 559 94 37
IEEE Xplore 8 87 32

Fuente: Elaboración propia.

5.4. Selección de estudios


Al aplicar las cadenas de búsqueda en la base digital IEEE Explore se obtuvo alrededor de
127 resultados relacionados con el tema el cual se consideró un número de artı́culos manejable,
adicionalmente los artı́culos apuntan y se encuentra dentro del grupo de control.

Sin embargo de todas las bases digitales presentadas en la tabla 2 se escogieron las cadenas
de búsqueda con los resultados más bajos y se analizaron de acuerdo al grupo de control.

De los 170 resultados obtenidos se seleccionaron los estudios realizados a partir del año 2015.
Debido a que no existen muchas investigaciones con este tipo de tecnologı́a implementada, los
artı́culos que más se ajustan a la temática se muestran en las tablas 3 y 4.
Tabla 3

Estudios Seleccionados I.
Código Tı́tulo Palabras Clave
EP01 An Augmented Reality/Internet of Things (Karasinski y cols., 2017)
Prototype for Just-in-time Astronaut
Training
EP02 Application of Augmented Reality in Mo- (Kot, Novák, y Babjak, 2017)
bile Robot Teleoperation

Fuente: Elaboración propia.

Pág. 6/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Tabla 4

Estudios Seleccionados II.


Código Tı́tulo Palabras Clave
EP03 Flying a drone in a museum an (Sébastien y cols., s.f.)
augmented-reality cultural serious game
in Provence
EP04 Natural, Multi-modal Interfaces for Un- (Taylor, 2017)
manned Systems
EP05 Mixed reality for robotics (Hoenig y cols., 2015)
EP06 Design and Evaluation of a Natural User (Herrmann y Schmidt, 2018)
Interface for Piloting an Unmanned Aerial
Vehicle
EP07 Flying Frustum: A Spatial Interface for (Li y cols., 2015)
Enhancing Human-UAV Awareness
EP08 Real-time unmanned aerial vehicle 3D en- (Ai y cols., 2016)
vironment exploration in a mixed reality
environment
EP09 A Mixed Reality Based Hybrid Swarm (Das y cols., 2017)
Control Architecture for Manned-
Unmanned Teaming (MUM-T)

Fuente: Elaboración propia.

5.5. Elaborar el estado del arte


5.5.1. EP01 : An Augmented Reality/Internet of Things Prototype for Just-in-
time Astronaut Training
En el artı́culo “An Augmented Reality/Internet of Things Prototype for Just-in-time Astro-
naut Training”los autores presentan un prototipo móvil para entrenamiento de astronautas, con
instrucciones iniciales de interacción hombre máquina (HCI) y herramientas de entrenamiento
con realidad aumentada (AR). El prototipo móvil aprovecha las gafas de realidad aumentada
Microsoft HoloLens y una red de sensores “Internet of Things”personalizados basados en un
conjunto de chips ESP8266. Este prototipo permite visualizar los procedimientos operativos
e interactuar con el usuario en tiempo real. Este visor de procedimientos móviles permite la
capacitación usando hologramas para proporcionar información relevante los usuarios que están
en práctica (Karasinski y cols., 2017).

5.5.2. EP02 : Application of Augmented Reality in Mobile Robot Teleoperation


En el artı́culo “Application of Augmented Reality in Mobile Robot Teleoperation”los autores
hacen un estudio de la utilización de la realidad aumentada en el panel de control operativo
de un robot móvil teleoperado. Este trabajo es la continuación de una investigación anterior,
que resultó en la creación y la implementación exitosa de una estación de operador virtual
basada en un pantalla de realidad virtual (HMD) Oculus Rift. El nuevo enfoque sugiere usar los
nuevos dispositivos de realidad aumentada Microsoft HoloLens para agregar los elementos de
control virtuales directamente al mundo real, lo que tiene algunos beneficios muy importantes,
especialmente el hecho de que el operador no está visualmente aislado en un entorno 3D. El
dispositivo se introduce al principio del entorno y luego sigue la descripción de todas las tareas
requeridas para crear la estación del operador con realidad aumentada (Kot y cols., 2017).

Pág. 7/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

5.5.3. EP03 : Flying a drone in a museum an augmented-reality cultural serious


game in Provence
El museo Arlaten, etnográfico dedicado a la preservación del patrimonio de Provenza fun-
dado en 1899 en Arles (Francia) por el poeta y ganador del Premio Nobel para la literatura
Frédéric Mistral. Proporciona una experiencia innovadora que permite al público descubrir el
Foro Romano en un exclusivo recorrido a través del uso de la tecnologı́a digital, permitiendo al
museo mantenerse en contacto con el público. El público puede volar un pequeño dron equipado
con una cámara, permitiendo desplasarse en el interiror del museo y en lugares de exposición
(Sébastien y cols., s.f.).

5.5.4. EP04 : Natural, Multi-modal Interfaces for Unmanne Systems


En el paper “Natural, Multi-modal Interfaces for Unmanned Systems”sus autores describen
interfaces naturales multimodales como una alternativa al estado actual de la práctica de con-
trolar sistemas no tripulados, con el objetivo de aprovechar a las personas y la comunican entre
sı́, para reducir el desgaste fı́sico y carga cognitiva al interactuar con sistemas no tripulados.
Describen aproximaciones, retos y desafı́os en el diseño, construcción y evaluación de interfaces
naturales. Presentan un dispositivo de Interacción Inteligente (SID) como un ejemplo de interfaz
natural para interacción con sistemas no tripulados, y resaltan algunos casos de uso aplicados
a los dominios de aire y tierra (Taylor, 2017).

5.5.5. EP05 : Mixed reality for robotics


La realidad mixta puede ser una herramienta valiosa para la investigación y el desarrollo
en robótica. En el artı́culo “Mixed reality for robotics”los autores hacen referencia a la defi-
nición de realidad mixta como la acción entre objetos fı́sicos y virtuales en cualquier entorno
fı́sico o virtual. En particular, muestran que la realidad mixta puede reducir la brecha entre
la simulación y la implementación en una combinación de objetos fı́sicos y virtuales, incluidos
robots, sensores y humanos. Los robots se pueden mejorar con capacidades virtuales adiciona-
les, o pueden interactuar con humanos sin compartir espacio fı́sico. Los autores demuestran con
tres experimentos representativos, las ventajas del enfoque planteado. También proporcionan
un banco de pruebas de Realidad mixta con tres entornos de robótica virtual en diferentes
combinaciones con el quadcopter Crazyflie 2.0 (Hoenig y cols., 2015).

5.5.6. EP06 : Design and Evaluation of a Natural User Interface for Piloting an
Unmanned Aerial Vehicle
Segun (Herrmann y Schmidt, 2018) controlar un vehı́culo aéreo no tripulado es desafiante
y requiere un entrenamiento intensivo. En el artı́culo “Design and Evaluation of a Natural
User Interface for Piloting an Unmanned Aerial Vehicle”presentan un concepto alternativo
para la teleoperación. Su propuesta incluye una pulsera de control de gestos “Thalmic Myo 2

gafas inteligentes Microsoft HoloLens. Estos dispositivos se combinan para implementar una
interfaz de realidad aumentada, con respuesta táctil y una entrada de gestos y habla. Esta
implementación fue evaluada con 30 participantes y se comparó con el uso del control remoto
convencional. Los resultados muestran que la interfaz propuesta es una buena solución pero no
alcanza el rendimiento del control remoto.

Pág. 8/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

5.5.7. EP07 : Flying Frustum: A Spatial Interface for Enhancing Human-UAV


Awareness
El proyecto Flying Frustum, es una interfaz espacial en 3D que permite el control de vehı́culos
aéreos no tripulados semiautónomos que utiliza la interacción de una pluma en un modelo 3D de
realidad aumentada (AR) que se ubica espacialmente y transmite información de los vehı́culos
aéreos no tripulados en el terreno fı́sico. La interfaz se basa en una impresión en 3D del terreno,
que permite al operador ingresar metas y rutas a los vehı́culos aéreos no tripulados, dibujandolas
directamente en el modelo 3D. A su vez, la información de reconocimiento es transmitida de
los vehı́culos aéreos no tripulados y se superpone en la impresión 3D en forma de vista, que se
sitúa de acuerdo con la posición y orientación de los vehı́culos aéreos no tripulados en el terreno
fı́sico. (Li y cols., 2015).

5.5.8. EP08 : Real-time unmanned aerial vehicle 3D environment exploration in


a mixed reality environment
El artı́culo “Real-time unmanned aerial vehicle 3D environment exploration in a mixed
reality environment”presenta un novedoso sistema de interacción entre robots y humanos que
permite realizar la exploración del entorno 3D en tiempo real con un vehı́culo aéreo no tripulado
(UAV). El método crea un entorno de realidad mixta, en el que un usuario puede controlar de
forma interactiva un vehı́culo aéreo no tripulado (UAV) y visualizar los datos de exploración en
tiempo real. El método utiliza una combinación de sensores asequibles que transforma el espacio
de control y visualización desde un vehı́culo aéreo no tripulado (UAV) hasta la perspectiva del
controlador. Se estudiaron diferentes configuraciones de hardware y software para que el sistema
pueda ajustarse y logre satisfacer diferentes necesidades y entornos. Los autores presentan un
sistema prototipo y se discuten los resultados de las pruebas (Ai y cols., 2016).

5.5.9. EP09 : A Mixed Reality Based Hybrid Swarm Control Architecture for
Manned-Unmanned Teaming (MUM-T)
En el artı́culo “A Mixed Reality Based Hybrid Swarm Control Architecture for Manned-
Unmanned Teaming (MUM-T)”los autores discuten una arquitectura de autonomı́a de enjambre
hı́brida para coordinar un equipo diverso de robots utilizando una tecnologı́a de interfaz inmer-
siva e intuitiva para el control cooperativo de plataformas no tripuladas. Esta novedosa interfaz
interactiva ofrece conocimiento situacional y presentación de posibles escenarios para la toma
decisiones. El diseño implementado funciona en un entorno de realidad aumentada (AR) y per-
mite hacer una exploración y evaluación en tiempo real con el enjambre, ası́ como la interacción
dinámica entre diferentes operadores humanos. Uno de los principales objetivos de esta inves-
tigación es reducir la carga cognitiva en los operadores y permitir la confianza entre los robots
y los humanos. Los principales puntos de discusión incluyen: personalización de plataformas no
tripuladas para control distribuido y fusión de sensores, desarrollo e implementación de una pla-
taforma mixta portal de interfaz de robot humano de realidad e incorporación de un controlador
de confianza dinámico neurocognitivo para la autonomı́a de enjambre. Los autores mencionan
que a través de dicha interconexión entre humanos y robots, la efectividad del enjambre puede
ejecutar misiones con velocidad y precisión. Este artı́culo presenta una validación experimental
de los modelos analı́ticos que involucran plataformas reales y virtuales (Das y cols., 2017).

Pág. 9/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

5.6. Caracterı́sticas del estado del arte


Existe una mı́nima cantidad de estudios relevantes en cuanto a la manipulación de vehı́culos
aéreos no tripulados (UAV) sin el uso del control remoto en un entorno de realidad mixta, la ma-
yorı́a de los resultados encontrados recaen en el número de tareas que el operador humano tiene
que ejecutar para controlar vehı́culos aéreos o terrestres no tripulados. Los estudios menciona-
dos anteriormente dependen de sistemas de control electrónicos digitales basados en sensores
los cuales comparten espacio fı́sico con el usuario, estas soluciones proponen arquitecturas de
control automatizado enfocado a resolver problemas especı́ficos en un entorno controlado.

6. OBJETIVOS
6.1. Objetivo General
Desarrollar e implementar una interfaz de usuario que permita realizar desplazamientos de
un vehı́culo aéreo no tripulado (UAV) en un entorno de realidad aumentada mediante gestos
corporales y faciales utilizando gafas inteligentes Microsoft HoloLens para mejorar la interacción
hombre robot (HRI).

6.2. Objetivos Especificos


Realizar el análisis del estado del arte mediante una revisión sistemática de literatura.

Proponer una arquitectura de software que permita el control de un vehı́culo aéreo no


tripulado (UAV) que interactúe con interfaces de programación de diferentes aplicaciones.

Desarrollar e implementar una interfaz gráfica de realidad mixta que interactúe simultánea-
mente con los movimientos de un vehı́culo aéreo no tripulado (UAV) y los movimientos
corporales, faciales del usuario utilizando gafas inteligentes Microsoft HoloLens.

Evaluar la interfaz de usuario desarrollada para obtener ı́ndices de satisfacción y aceptación


a través del instrumento cuestionario “USE”.

7. JUSTIFICACIÓN
El presente estudio tiene como finalidad mejorar la interacción hombre robot (HRI) y el
aprendizaje del control de un vehı́culo aéreo no tripulado utilizando una interfaz gráfica de
realidad mixta, fucionando objetos reales y virtuales que permiten al usuario realizar desplaza-
mientos de un vehı́culo aéreo no tripulado (UAV) mediante gestos corporales y faciales. Esta
solución permite disminuir la carga cognitiva que normalmente el usuario requiere al controlar
un vehı́culo aéreo no tripulado por medio del control remoto. La disminución de dicha carga
permite que el usuario centre su atención en cumplir objetivos y misiones según el área de
expertis, ejemplos: levantamientos topográficos, reconocimiento de terrenos, análisis de zonas,
etc.

Pág. 10/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Para comprender las diferencias entre mundos virtuales, reales y la combinación entre ellos,
a finales de los 80 y principios de los 90 (Milgram y cols., 1995), profesor de ingenierı́a de la
Universidad de Toronto, presenta el diagrama de la figura 2, que nos ayuda a conceptualizar
cómo crear y desplegar contenido en estos medios relativamente nuevos.

Figura 2. El continuo de Milgram.

Segun (Leue, Jung, y tom Dieck, 2015) la realidad aumentada (AR) y la informática en los
dispositivos móviles tienen el potencial de crear un entorno de aprendizaje realista. La realidad
aumentada se ha convertido en una tecnologı́a interactiva la cual complementa el entorno fı́sico
con el virtual ofreciendo modos innovadores para acceder a contenido e información en tiempo
real (Javornik, 2016).

Los investigadores del Ejército brasileño proponen la preparación de soldados utilizando


nuevos enfoques basados en realidad mixta, las tecnologı́as que según (Amorim, Matos, Cu-
perschmid, Gustavsson, y Pozzer, 2013) mejoran el entrenamiento y la preparación de misiones
en un enfoque simulado.

En la automatización y control se presentan sistemas con alto nivel de complejidad que están
propensos a generar una carga de trabajo amplia, esto puede volverse inmanejable, imprudente
e incluso peligroso. Por lo tanto, la implementación de equipos no tripulados se ha vuelto una
estrategia de calidad e innovación tecnológica. Sin embargo, una arquitectura automatizada
basada en el conocimiento recae en el control y monitoreo de los robots, lo cual significa que el
operador humano debe ejecutar múltiples tareas en un tablero de control o computadora con
varios monitores, como se muestra en la figura 3.

Figura 3. Estacion de control

Pág. 11/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Según (Gartner, 2017) las empresas deberı́an explotar el potencial comercial de las tec-
nologı́as conocidas como; blockchain, la inteligencia artificial y la realidad aumentada. En los
últimos años las tecnologı́as que surgen o nacen, como el aprendizaje automático, blockchain,
drones (UAV comerciales), seguridad definida por software y las interfaces cerebro-computadora
se han elevado significativamente desde el 2016, en la figura 4 se presenta el ciclo de Gartner
denominado Hype, debido al impacto creciente del avance tecnologico y cientifico la cual da
nacimiento a estas nuevas tendencias.

Figura 4. Gartner Ciclo Hype, Expectativas vs. El paso del tiempo.

El Ciclo de Gartner denominado Hype, se centra en tres megatendencias tecnológicas: Inteli-


gencia Artificial (IA), experiencias inmersivas y plataformas digitales. Los arquitectos empresa-
riales y los lı́deres en innovación tecnológica exploran estas tres megatendencias para comprender
los impactos en sus negocios. En la figura 5 se analiza las tecnologı́as que ofrecen un alto grado
de ventaja competitiva.

Pág. 12/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Figura 5. Las 3 tendecias tecnologicas del Ciclo Hype.

El análisis del ciclo Hype muestra una tendencia creciente de 5 a 10 años en la evolución y
el desarrollo de tecnologı́as con realidad aumentada y más de 10 años en el desarrollo de ciencia
y tecnologı́a en vehı́culos aéreos no tripulados, las tendencias mencionadas se fusionan entre sı́,
permitiendo que el tiempo de evolución de estas tecnologı́as se prolongue durante varios años,
lo que ofrece rentabilidad e innovación a las empresas que lo implementan.

La tecnologia con realidad aumentada (AR) han revolucionado el comportamiento de la


sociedad (Kalantari y Rauschnabel, 2018). Las gafas inteligentes como Microsoft HoloLens o
Google Glass, representan ejemplos destacados; ofreciendo un elevado potencial para la investi-
gación y desarrollo.

Según (Rauschnabel y Ro, 2016) la aceptación de tecnologı́a en gafas inteligentes incluye


varios factores como: los beneficios funcionales, la facilidad de uso, variables y diferencias indi-
viduales las cuales marcan actitudes y normas sociales. Aunque las gafas inteligentes se usan de
manera similar a los accesorios de dispositivos móviles capturan diversos datos personales del
usuario. En figura 6 muestra diferentes dispositivos de realidad aumentada con forma de gafas.

Pág. 13/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

(a) Microsoft HoloLens (b) Google Glass

(c) Sony SmartEyeGlass (d) Epson Moverio BT-300

Figura 6. Gafas Inteligentes de Realidad Aumentada Comerciales.

En la tabla 5 se describe las caracteristicas de los dispositivos presentados en la figura 6.


Tabla 5

Caracteristicas de dispositivos de realidad mixta con forma de gafas.


Fecha de Sistema Entradas Sistema
Dispositivos CPU Display Peso
Lanzamiento Operativo de Control Independiente
2.3 megapixel
Gestural
Windows widescreen
Microsoft Intel 32-bit commands
2016 Mixed stereoscopic 579g SI
HoloLens (1GHz) via sensors
Reality head-mounted
and HPU
display
Prism
Touchpad,
OMAP projector
Google Glass 2014 Glass OS MyGlass phone 36g NO
4430 640 x 360
mobile app
pixeles
Sony Monochrome Android
2015 Android Ninguno 77g NO
SmartEyeGlass (green) device
Epson Moverio Android 1.44 GHz BT-300FPV
2016 OLED display 69g NO
BT-300 5.0 Quad Core controller

Fuente: Elaboración propia.

La tabla 5 muestra que Microsoft HoloLens es el único dispositivo independiente. Por lo


cual, es una opción viable para el desarrollo de software basado en realidad aumentada (AR) y
adecuada para la presente investigación.

Pág. 14/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Una solución propuesta por (Das y cols., 2017) es un sistema de control de realidad aumen-
tada (AR) con lenguaje natural y un interfaz de gestos para administrar de manera eficiente, no
solo un robot, sino todo un conjunto o segmento de robots que cumplen uno o varios procesos.
En la cual se discute una arquitectura de autonomı́a de enjambre hı́brida para coordinar un
equipo diverso de robots, utilizando una tecnologı́a de interfaz inmersiva e intuitiva con varios
sensores adicionales que permiten el control cooperativo de plataformas no tripuladas. Esta no-
vedosa interfaz interactiva ofrece información en tiempo real y posibles escenarios que ayuden
a la toma decisiones en un entorno de realidad mixta.

En la figura 7 se muestra un ejemplo de escenario de implementación de la realidad mixta en


la interacción de robot humano (HRI), de tres tipos diferentes de robots, es decir, un UAV, un
UGV y un robot humanoide, para llevar a cabo una tarea coordinada en conjunto, ejecutando
diferentes tareas de forma simultanea.

Figura 7. Ejemplo de escenario de implementación de AR de los robots: UAV, UGV, humanoide

Por lo expuesto, la presente investigación propone una solución que permite controlar un
vehı́culo aéreo no tripulado identificando cuales son los gestos corporales y faciales que faciliten
la interacción hombre robot (HRI) a través de una interfaz gráfica de realidad aumentada. En
la cual se plantea una arquitectura de software con diferentes aplicaciones que interactúan entre
sı́, en tiempo real. El presente estudio darı́a lugar a futuras investigaciones, en las que se inter-
actúa con varios vehı́culos aéreos o terrestres no tripulados con reconocimiento de objetos. Este
enfoque da lugar a un nuevo paradigma que permite que simplificar el espacio fı́sico utilizado en
control, seguimiento y monitoreo de robots o máquinas, en una interfaz de usuario de realidad
mixta utilizando gafas inteligentes Microsoft HoloLens. En la figura 8 el autor propone una
posible arquitectura.

Figura 8. Propuesta de arquitectura de software de HRI en un entorno de AR.

Pág. 15/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

8. ALCANCE
Esta investigación plantea una arquitectura de software y un conjunto de aplicaciones e in-
terfaces de programación que interactúan entre sı́, en tiempo real para dar lugar a la interacción
hombre robot (HRI) utilizando una interfaz gráfica de realidad mixta, que permite el control de
un vehı́culo aéreo no tripulado (UAV) por medio de movimientos corporales y faciales utilizando
gafas inteligentes Microsoft HoloLens.

Para definir de forma adecuada el alcance de la investigación planteada, se proponen varias


preguntas de investigación asociadas a los objetivos especı́ficos, tal como se muestra en la tabla
6.
Tabla 6

Preguntas de investigación.
Objetivo especı́fico Pregunta de investigación
Realizar el análisis del estado del arte mediante
una revisión sistemática de literatura.
1. ¿Qué método se utilizará para realizar el
análisis del estado del arte?

2. ¿Cual es el propósito de realizar el análisis


del estado del arte?

Proponer una arquitectura de software que per-


mita el control de un vehı́culo aéreo no tripulado
1. ¿Cuáles son los beneficios de crear una ar-
(UAV) que interactúe con interfaces de progra-
quitectura de software para le control de
mación de diferentes aplicaciones.
un vehı́culo aéreo no tripulado?

2. ¿Que tecnologı́as permiten el control de


un vehı́culo aéreo no tripulado mediante
interfaces programadas de diferentes pro-
gramas?

Desarrollar e implementar una interfaz gráfica


de realidad mixta que interactúe simultánea-
1. ¿Que tipo de dispositivo permite la inter-
mente con los movimientos de un vehı́culo aéreo
acción de movimientos corporales y facia-
no tripulado (UAV) y los movimientos corpora-
les?
les, faciales del usuario utilizando gafas inteli-
gentes Microsoft HoloLens. 2. ¿Que tecnologı́a de desarrollo de software
permite crear una interfaz grafica de reali-
dad mixta?

Evaluar la interfaz de usuario desarrollada para


obtener ı́ndices de satisfacción y aceptación a
1. ¿Que pretende la evaluación de la interfaz
través del instrumento cuestionario “USE”
de usuario de (AR)?

2. ¿Cuál será el instrumento que se utilizará


para dicha evaluación?

Fuente: Elaboración propia.

Pág. 16/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

9. DEFINICIÓN DE LA INVESTIGACIÓN
La investigación es de carácter bibliográfico exploratorio debido a que se centra en analizar e
investigar aspectos concretos del tema planteado que aún no han sido analizados a profundidad.
Y será de método inductivo debido a que se centra en cómo se genera el problema para la
obtención de datos, términos y conclusiones. Adicionalmente la investigación adopta un carácter
cuantitativo por la evaluación de satisfacción y aceptación propuesta en uno de sus objetivos
especı́ficos.

9.1. Revisión inicial sistemática de la literatura


Para analizar el estado del arte acerca de la manipulación de vehı́culos aéreos no tripulados
sin el uso del control remoto y en un entorno de realidad mixta, se realizó un proceso de
revisión de literatura inicial basado en las guı́as de revisión sistemática de literatura propuestas
por (Budgen y Brereton, 2006). Las actividades consideradas para este proceso se muestran en
la figura 1.

9.2. Prototipado rápido: una estrategia alternativa de diseño instruccional


Es una metodologı́a de diseño llamada rápida creación de prototipos que se ha utilizado
exitosamente en ingenierı́a de software (Tripp y Bichelmeyer, 1990) dado las similitudes entre
el diseño del software y diseño instruccional, refiriéndose a las buenas prácticas de adquirir
conocimiento, los autores argumentan que la rápida creación de prototipos es un modelo viable
para diseño instruccional, especialmente para instrucción basada en ciencias de la computación.
Dichas teorı́as también respaldan que la creación rápida de prototipos es apropiada para el
diseño instruccional. También ofrecen pautas para el uso de metodologı́a. (Naumann y Jenkins,
1982) describe una breve discusión de varios ejemplos y la creación de prototipos orientado al
desarrollo de sistemas informáticos.

9.3. Medición de usabilidad con el del instrumento cuestionario “USE”.


Según (Lund, 2001) el cuestionario ha sido utilizado con éxito por muchas compañı́as en
todo el mundo, y forma parte de varios proyectos de investigación, el desarrollo del cuestionario
aún no ha terminado. Este cuestionario es un excelente punto de partida para determinar un
ı́ndice de usabilidad y lograr éxito en el mercado. El cuestionario es estandarizado, gratuito y
se aplica a varios los dominios de la usabilidad.

Pág. 17/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

10. HERRAMIENTAS
10.1. Hardware
En la tabla 7 se describen las caracterı́sticas de los dispositivos que se utilizarán durante el
desarrollo e implementación de la presente investigación.
Tabla 7

Dispositivos.
Dispositivo Especificaciones
Pc Intel Core i7-5500U CPU 2.40GHz 4, Intel HD Graphics
5500 (Broadwell GT2), 8GB RAM, Almacenamiento 500 GB
Drone (Cuadricoptero) Se utilizaran drones comerciales y open sources como : Pa-
rrot AR Drone 2.0, Parrot Bebop 2 y Multiwii
HoloLens Unit HPU 1.0 32-bits, 2GB RAM, Sensores: audio, movi-
miento, almacenamiento 64GB, camara de 2MP photos, HD
video, Wi-Fi 802.11ac, Bluetooth 4.1 LE, Micro-USB 2.0
Router D-Link Router
Antena Card King Wifi USB

Fuente: Elaboración propia.

10.2. Software
En la tabla 8 se describen las herramientas o frameworks que se utilizarán durante el desa-
rrollo e implementación de la presente investigación.
Tabla 8

Conjunto de herramientas de desarrollo.


Software Versión
Visual Code 1.24.0
Visual Studio
2017
Community
Unity 2017.30f3
Blender 2.7.6
TeXstudio 2.10.8

Fuente: Elaboración propia.

11. FACTIBILIDAD DEL PROYECTO


11.1. FACTIBILIDAD TÉCNICA
Las herramientas necesarias para el desarrollo e implementación de la presente investiga-
ción son financiadas por el autor. Las herramientas software descritas en la tabla 8 son open
source. En conclusión, técnicamente es factible el desarrollo e implementación, dado que las
herramientas de hardware y software están al alcance.

Pág. 18/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

11.2. FACTIBILIDAD OPERATIVA


La investigación plantea varios desafı́os en el desarrollo e implantación de la misma, sin
embargo da lugar a un nuevo paradigma de desarrollo de aplicaciones en un entorno de reali-
dad mixta, mejorando el aprendizaje e interacción hombre robot o máquina de los usuarios,
simplificando controles manuales por interfaces de realidad aumentada facilitando el control de
vehı́culos aéreos no tripulados UAV.

11.3. FACTIBILIDAD ECONÓMICA


Los gastos estarán a cargo del investigador.
Tabla 9

Análisis Económico.
Descripción Costo
Servicios Básicos 120.00
Papelerı́a e Impresiones 100.00
Transporte 80.00
Licencias de Software 0.00
PC 1200.00
HoloLens 3000.00
Drone 650.00
Hora de Desarrollo e Implementación 4200
TOTAL 9350.00

Fuente: Elaboración propia.

11.4. TEMARIO
Capı́tulo I: INTRODUCCIÓN

1.1 Planteamiento del problema


1.2 Antecedentes
1.3 Justificación
1.4 Objetivos
1.4.1 Objetivo General
1.4.2 Objetivos Especı́ficos
1.5 Alcance

Capı́tulo II: ESTADO DEL ARTE

2.1 Introducción
2.2 Realidad Aumentada
2.2.1 Antecedentes
2.2.2 Caracterı́sticas
2.2.3 Frameworks de Desarrollo de realidad Aumentada
2.3 Microsoft HoloLens
2.3.1 Antecedentes
2.3.2 Caracterı́sticas

Pág. 19/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

2.3.3 Implementaciones realizadas


2.4 Vehı́culos aéreos no tripulados
2.1.1 Antecedentes
2.1.2 Caracterı́sticas
2.1.4 Arquitectura
2.5 Proyectos Relacionados

Capı́tulo III: ARQUITECTURA DE SOFTWARE

3.1 Análisis de dispositivos


3.2 Sistemas operativos
3.3 Plataformas y tecnologı́as de control
3.4 Tecnológicas de desarrollo de software “Real-Time”
3.5 Diseño de la arquitectura
3.6 Implementación de la arquitectura

Capı́tulo IV: INTERFAZ GRÁFICA DE REALIDAD MIXTA

4.1 Arquitectura de Microsoft HoloLens


4.2 Entorno de desarrollo Microsoft HoloLens
4.2.1 Plataforma de Desarrollo de Videojuegos Unity
4.2.2 Frameworks de realidad aumentada
4.2.3 Paquetes y librerias adicionales
4.3 Integración a la arquitectura de control
4.4 Despliegue e implementación en el dispositivo
4.5 Pruebas de funcionamiento
4.6 Análisis de resultados

Capı́tulo V: EVALUACIÓN

5.1 Instrumento cuestionario “USE”


5.2 Selección de usuarios
5.3 Implementacion del cuestionario
5.4 Análisis de resultados

CONCLUSIONES Y RECOMENDACIONES

TRABAJOS FUTUROS

Pág. 20/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

11.5. CRONOGRAMA

Figura 9. Cronograma del proyencto

Figura 10. Tareas del proyencto

Pág. 21/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

12. BIBLIOGRAFÍA PRELIMINAR

Referencias
Ai, Z., Livingston, M. A., y Moskowitz, I. S. (2016). Real-time unmanned aerial vehicle 3d
environment exploration in a mixed reality environment. En Unmanned aircraft systems
(icuas), 2016 international conference on (pp. 664–670).
Amorim, J. A., Matos, C., Cuperschmid, A. R., Gustavsson, P. M., y Pozzer, C. T. (2013).
Augmented reality and mixed reality technologies: Enhancing training and mission prepa-
ration with simulations. En Nato modelling and simulation group (msg) annual conference
2013 (msg-111), 2013.
Budgen, D., y Brereton, P. (2006). Performing systematic literature reviews in software engi-
neering. En Proceedings of the 28th international conference on software engineering (pp.
1051–1052).
Das, A. N., Doelling, K., Lundberg, C., Sevil, H. E., y Lewis, F. (2017). A mixed reality based
hybrid swarm control architecture for manned-unmanned teaming (mum-t). En Asme
2017 international mechanical engineering congress and exposition (pp. V014T07A019–
V014T07A019).
Gartner. (2017). Top trends in the gartner hype cycle for emerging technologies, 2017.
Herrmann, R., y Schmidt, L. (2018). Design and evaluation of a natural user interface for
piloting an unmanned aerial vehicle. i-com, 17 (1), 15–24.
Hoenig, W., Milanes, C., Scaria, L., Phan, T., Bolas, M., y Ayanian, N. (2015). Mixed reality for
robotics. En Intelligent robots and systems (iros), 2015 ieee/rsj international conference
on (pp. 5382–5387).
Javornik, A. (2016). Augmented reality: Research agenda for studying the impact of its media
characteristics on consumer behaviour. Journal of Retailing and Consumer Services, 30 ,
252–261.
Kalantari, M., y Rauschnabel, P. (2018). Exploring the early adopters of augmented reality
smart glasses: The case of microsoft hololens. En Augmented reality and virtual reality
(pp. 229–245). Springer.
Karasinski, J. A., Joyce, R., Carroll, C., Gale, J., y Hillenius, S. (2017). An augmented
reality/internet of things prototype for just-in-time astronaut training. En International
conference on virtual, augmented and mixed reality (pp. 248–260).
Kot, T., Novák, P., y Babjak, J. (2017). Application of augmented reality in mobile robot
teleoperation. En International conference on modelling and simulation for autonomous
systems (pp. 223–236).
Leue, M. C., Jung, T., y tom Dieck, D. (2015). Google glass augmented reality: Generic
learning outcomes for art galleries. En Information and communication technologies in
tourism 2015 (pp. 463–476). Springer.
Li, N., Cartwright, S., Shekhar Nittala, A., Sharlin, E., y Costa Sousa, M. (2015). Flying
frustum: A spatial interface for enhancing human-uav awareness. En Proceedings of the
3rd international conference on human-agent interaction (pp. 27–31).
Lund, A. M. (2001). Measuring usability with the use questionnaire12. Usability interface,
8 (2), 3–6.
Milgram, P., Drascic, D., Grodski, J. J., Restogi, A., Zhai, S., y Zhou, C. (1995). Merging real
and virtual worlds. En Proceedings of imagina (Vol. 95, pp. 218–230).
Naumann, J. D., y Jenkins, A. M. (1982). Prototyping: the new paradigm for systems develop-
ment. Mis Quarterly, 29–44.
Petersen, K., Feldt, R., Mujtaba, S., y Mattsson, M. (2008). Systematic mapping studies in
software engineering. En Ease (Vol. 8, pp. 68–77).

Pág. 22/23
Departamento de Ciencias de la Computación
Carrera de Tecnologı́as de la Información (Sistemas e Informática)

Rauschnabel, P. A., y Ro, Y. K. (2016). Augmented reality smart glasses: An investigation


of technology acceptance drivers. International Journal of Technology Marketing, 11 (2),
123–148.
Sébastien, T., Arles, F., SERENA-ALLIER, D., Arlaten, M., SALVETAT, C., y LACOTTE, F.
(s.f.). Flying a drone in a museum.
Taylor, G. (2017). Natural, multi-modal interfaces for unmanned systems. En International
conference on engineering psychology and cognitive ergonomics (pp. 145–158).
Tripp, S. D., y Bichelmeyer, B. (1990). Rapid prototyping: An alternative instructional design
strategy. Educational Technology Research and Development, 38 (1), 31–44.

Pág. 23/23

S-ar putea să vă placă și