Documente Academic
Documente Profesional
Documente Cultură
Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es
toda aquella que toma una decisión o piensa, producto de deducir de la información que
dispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igual
en la memoria, sino que se toma información que fue almacenada anteriormente para
realizar una deducción. Por consiguiente, se infiere que la IA a diferencia de los sistemas
operacionales presenta ciertos elementos que la distinguen, como son:
2
Fuente. Neurociencia y Realidad virtual. http://neurocienciaeia.blogspot.com/ [On line] Consultado el 20 de
julio de 2012.
no es suficiente para distinguirlo completamente. Otros tipos de programas como
los compiladores y sistemas de bases de datos, también procesan símbolos y no se
considera que usen técnicas de Inteligencia Artificial.
2. El comportamiento de los programas no es descrito explícitamente por el algoritmo.
La secuencia de pasos seguidos por el programa es influenciado por el problema
particular presente. El programa especifica cómo encontrar la secuencia de pasos
necesarios para resolver un problema dado.
3. Estos programas incorporan factores y relaciones del mundo real y del ámbito
del conocimiento en que ellos operan.
3
Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5,
némuro 4. Octubre a diciembre de 2011.
parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en el
ámbito de la inteligencia artificial.
Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentales
vinculados a la utilización de información del dominio de problemas (con el fin de hacer
una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un
problema.
Systems that can demonstrate human-like reasoning capability to enhance the quality of
life and improve business competitiveness. (Japan-S’pore AI Centre)
La Inteligencia Artificial es el estudio de técnicas de resolución de problemas con
complejidad exponencial a partir del conocimiento del campo de aplicación del
problema. (Rich)
En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser
simples o complejos. Los algoritmos simples tienden a tener reglas de terminación bien
definidas, y se detienen en un óptimo local, mientras que los algoritmos más complejos
pueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzar
un punto de parada arbitrario.
Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación,
esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnos
con algoritmos que fueron diseñados para dar solución a problemas de búsqueda de
óptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducir
conocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemas
basados en el conocimiento.
Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:
Búsqueda Tabú
Temple Simulado
Algoritmos Genéticos
Redes Neuronales
Agentes inteligentes
Búsqueda Tabú
La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de
Glover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Según
su creador, es un procedimiento que "explora el espacio de soluciones más allá del óptimo
local", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución,
una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos se
califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a
soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de
inhibición a algo debido a connotaciones culturales o históricas y que puede ser superada en
determinadas condiciones. (Glover).
Temple Simulado
El uso del temple simulado en problemas
de Optimización se ha extendido desde
mediados de los ochenta hasta ahora, a
partir de los trabajos de Kirpatrick, Gelatt
& Vecchi. Los algoritmos Temple
Simulado están basados en una estrecha
analogía entre los procesos físicos
termodinámicos y los elementos de un
problema de optimización combinatoria.
Aunque asintóticamente estos algoritmos
se comportan como exactos, (un análisis
exhaustivo de esta afirmación se puede
encontrar en el trabajo de Aarts & Korst),
en la práctica se diseñan como heurísticos.
El campo de aplicaciones se ha extendido
durante estos años. En problemas de rutas
destacan las aportaciones de Osman, para
el VRP; y Aarts y otros, para el problema
del viajante de comercio.
Algoritmos Genéticos
En los años setenta, de la mano de John Holland surgió una de las líneas más prometedoras
de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se
inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen
evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a
las que actúan en la evolución biológica (mutaciones y recombinación genética), así como
también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles
son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son
descartados.
Redes Neuronales
En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de
aprendizaje y procesamiento automático basado en el funcionamiento del sistema nervioso
animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas
a través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados,
ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestas
similares a las del cerebro humano, caracterizadas por su generalización y robustez.
Sistemas expertos
Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: en
primer lugar el del analizar el razonamiento de un experto en la materia para poder
codificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesis
artificial de los razonamientos para que se parezcan a los del experto humano en la
resolución de un determinado problema. Estos dos intereses han hecho que los
investigadores del campo de la IA intenten establecer una metodología que les permita
verificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento
(formal, deductivo, inductivo...), además de construir los elementos necesarios para
modelizarlos.
Mientras que en la programación clásica se diferencia solamente entre el programa y los
datos, en los sistemas expertos se diferencian tres componentes:
Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre sus
fases con una destinada a la evaluación del sistema desarrollado.
1. Estudio de viabilidad
2. Adquisición del conocimiento
3. Conceptualización (análisis)
4. Formalización (diseño)
5. Implementación
6. Evaluación
La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientes
aspectos a tener en cuenta
Verificación
Sintaxis y estructura adecuada (no redundante, completa, consistente)
Se realiza en modelos conceptuales, formales y computables
Validación
Semántica adecuada [experto]
Se realiza en modelos conceptuales, formales y computables
Modelos Matemáticos
En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una
máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso
un «juego de imitación». En la prueba de Turing intervienen dos personas y un
computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la
terminal de una computadora. Cuando aparecen las respuestas en la terminal, el
interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si
actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina
podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la
prueba a finales del siglo XX.
De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus
repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia
artificial como una imitación del comportamiento humano no fue tan práctico a lo largo
del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera
similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los
pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde
luego, el enfoque del comportamiento humano y el del pensamiento humano siguen
siendo estudiados por las ciencias cognitivas4 y continúan aportando interesantes resultados
a la Inteligencia Artificial, y viceversa.
4
Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada y
transformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergencia
transdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales y
emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso,
incorporados, y que típicamente se les denomina como: mente y comportamiento.
La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter como
multidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, la
psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia y
la antropología cognitiva.
Orígenes y Evolución Cronológica
Antecedentes
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de manera
artificial.
En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa
que los silogismos de Aristóteles, pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la
cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números
Calculables", un artículo que estableció las bases teóricas para todas las ciencias de
computación, y que puede considerarse el origen oficial de la informática teórica. En este
artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que
formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras
digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y
ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las
ciencias de la computación porque demostró que no es posible resolver problemas con
ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por
lo que se le considera el padre de la teoría de la computabilidad5.
5
La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que
pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la
computabilidad se interesa a cuatro preguntas:
La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de
diversos recursos en diversos tipos de máquina.
programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igual
concepto, fueron la ABC y ENIAC.
1950´s
En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva
generación de computadoras mucho más rápidas y pequeñas.
Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de los
ambientes especializados. La ambición exagerada en los objetivos planteados se contrapuso
con las limitaciones de la tecnología de la época, lo que conllevaría una desilusión
generalizada al final de estos años, y no solo por estas limitaciones, sobre todo por la
constatación teórica de la imposibilidad de obtener resultados en ciertos casos.
A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos más
destacados se encuentran:6
- Logic theorist. (1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw y
buscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que o
bien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera.
- General Problem Solver.(GPS) Este programa intentaba resolver problemas mediante una
técnica que permitiera, dados el objetivo y los medios disponibles, encontrar la manera de
utilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudo
aplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobre
el dominio.
6
Fuente de consulta. Historia e la inteligencia artificial.
http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm [On line] Consultado el 20
de julio de 2012.
- Perceptrón. (1958). Fue iniciado por Frank Rosenblatt, con la intención de determinar
algunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía que
la conducción de la información a través de las redes neuronales tenía un gran componente
aleatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo que
fuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky y
Papert con su "Perceptrons: An Introduction to Computational Geometry" pusieron de
manifiesto las limitaciones de este tipo de redes, como el de solucionar problemas que no
sean linealmente separables, el Perceptrón ha servido como base para otros modelos de red
neuronal como la Adaline, o las redes multicapa.
- Geometry Theorem Prover. (1958). Programa desarrollado por IBM para resolver
problemas geométricos.
- Programa para jugar a las damas. (1962). Creado por Samuel, y también desarrollado
por IBM, era capaz de aprender de la experiencia, y corregir sus propios errores para
partidas posteriores. Bernstein logró lo mismo para el ajedrez, pero las quejas de los
accionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabo
con estos proyectos.
Resultado después de traducir al ruso y luego al inglés: El vodka es bueno, pero el filete
está podrido.
- Micromundos de Bloques. (1963). Tras desistir de los intentos en visión artificial, en los
que se intentaba conectar una cámara a un ordenador y que este describiera lo visto, se
intento llevarlo a cabo con unos objetivos más humildes. Los micromundos son
"representaciones" de laboratorio de la vida real, donde quien interactué con la realidad sea
un ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creado
por Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas del
tipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIR
comprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", es
decir, detectando unas palabras clave en una posición determinada obtenía la información
necesaria.
- ELIZA. (1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT,
permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importancia
dentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos",
como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc).
Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues este
programa, en medio de una conversación, intercala frases hechas que un humano no
utilizaría.
1970 a 19797
7
Ibid.
- XCON (1979) Creado por Jhon McDermott, es el primer sistema experto con aplicaciones
fuera de los ámbitos académicos y de los laboratorios de investigación. Este sistema
permitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que tenían
configuraciones distintas entre sí, evitando de esta manera que los fallos de estos
ordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posterior
desarrollo logro conseguir los objetivos marcados.
Dentro de la programación lógica se logra uno de los avances mas destacables con la
aparición del lenguaje PROLOG, en 1972 por la Universidad de Marsella. Los éxitos de
estos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizo
que estos programas fueran más rentables y así empezaron a sustituir a personas expertas en
determinadas materias.
1980´s
En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar
al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que
este campo sufrió una nueva interrupción en los años noventa.