Sunteți pe pagina 1din 18

Historia de la inteligencia artificial y características1

La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de


1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950
de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la
información.

Si bien las ideas fundamentales se


remontan a la lógica y algoritmos de los
griegos, y a las matemáticas de los árabes,
varios siglos antes de Cristo, el concepto
de obtener razonamiento artificial aparece
en el siglo XIV. A finales del siglo XIX se
obtienen lógicas formales suficientemente
poderosas y a mediados del siglo XX, se
obtienen máquinas capaces de hacer uso de
tales lógicas y algoritmos de solución.

Entonces, ¿qué es la inteligencia artificial?

- Es el nuevo y excitante esfuerzo de hacer que los computadores piensen…


máquinas con mentes, en el más amplio sentido literal. (Haugeland, 1985).
- El estudio de los cálculos que hacen posible percibir, razonar y actuar. (Winston,
1992).
- El arte de desarrollar máquinas con capacidad para realizar funciones que cuando
son realizadas por personas requieren de inteligencia. (Kurzweil, 1990).
- Es el resultado de combinar distintas áreas (ciencias) con el propósito de crear
máquinas que puedan (inteligencia). (Grupo 13).
- El estudio de como hacer computadoras que hagan cosas que, de momento, la gente
hace mejor. (Rich y Knight, 1991).
- Un campo de estudio que busca explicar y emular el comportamiento inteligente en
términos de procesos computacionales. (Schalkoff, 1990).
- El estudio de las facultades mentales a través del estudio de modelos
computacionales. (Charniak y McDermott, 1985)

Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es
toda aquella que toma una decisión o piensa, producto de deducir de la información que
dispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igual
en la memoria, sino que se toma información que fue almacenada anteriormente para
realizar una deducción. Por consiguiente, se infiere que la IA a diferencia de los sistemas
operacionales presenta ciertos elementos que la distinguen, como son:

Los sistemas operacionales se caracterizan por:

- Pensar el algoritmo para luego programarlo.


- Procesamiento de datos mayormente.
- Solo acepta la mejor solución posible.

Para el caso de la IA:

- Busca la información necesaria para solucionar un problema.


- Procesamiento de conocimiento.
- Acepta una respuesta o solución viable.

La Inteligencia Artificial comenzó como el


resultado de la investigación en psicología
cognitiva y lógica matemática. Se ha enfocado
sobre la explicación del trabajo mental
y construcción de algoritmos de solución
a problemas de propósito general. Punto de vista
que favorece la abstracción y la generalidad.

La Inteligencia Artificial es una combinación


de la ciencia del computador, fisiología y
filosofía, tan general y amplio como eso, es que
reúne varios campos (robótica, sistemas
expertos, por ejemplo), todos los cuales tienen
en común la creación de máquinas que pueden
"pensar".

Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por


Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de
clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald
Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronalescreando, en
conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se
considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por
muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo
que se conoce como sistemas expertos.

Características de la Inteligencia Artificial2

1. Una característica fundamental que distingue a los métodos de Inteligencia


Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque

2
Fuente. Neurociencia y Realidad virtual. http://neurocienciaeia.blogspot.com/ [On line] Consultado el 20 de
julio de 2012.
no es suficiente para distinguirlo completamente. Otros tipos de programas como
los compiladores y sistemas de bases de datos, también procesan símbolos y no se
considera que usen técnicas de Inteligencia Artificial.
2. El comportamiento de los programas no es descrito explícitamente por el algoritmo.
La secuencia de pasos seguidos por el programa es influenciado por el problema
particular presente. El programa especifica cómo encontrar la secuencia de pasos
necesarios para resolver un problema dado.

3. Estos programas incorporan factores y relaciones del mundo real y del ámbito
del conocimiento en que ellos operan.

4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia


Artificial los programas no pueden trabajar con este tipo de problemas.

Heurística e Inteligencia Artificial3

La heurística se trata del arte de innovar, de visualizar en el diseño, de concebir nuevas


ideas, de hacer descubrimientos o logros, también es la capacidad de un sistema para
realizar de forma inmediata innovaciones positivas para sus fines. La capacidad heurística
es un rasgo característico de los humanos, desde cuyo punto de vista puede describirse
como el arte y la ciencia del descubrimiento y de la invención o de resolver problemas
mediante la creatividad y el pensamiento lateral o pensamiento divergente.
Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de
abstracción dado, como procesos computacionales de algún tipo.

En cierto sentido, el enfoque heurístico es el característico de la IA. Newell y Simon


asociaban el "método de búsqueda heurística" con el tipo de representación de soluciones

3
Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5,
némuro 4. Octubre a diciembre de 2011.
parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en el
ámbito de la inteligencia artificial.
Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentales
vinculados a la utilización de información del dominio de problemas (con el fin de hacer
una búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de un
problema.

Estas definiciones se refieren, a dos conjuntos diferentes de métodos: dispositivos que


mejoran la eficiencia y dispositivos que no garantizan obtener un resultado. El paradigma
metaheurístico consiste en una familia de métodos de búsqueda que comenzó a
desarrollarse con ese nombre a partir de la década del 80. Estrictamente no se lo considera
un paradigma sino simplemente un conjunto de métodos o herramientas de búsqueda, pero
es posible que tarde o temprano entre en esta categoría. Osman y Kelly (1996) describen la
metaheurística del siguiente modo: "Estas familias de enfoques incluyen pero no se limitan
a procedimientos adaptativos aleatorios golosos, algoritmos genéticos, búsqueda de umbral
y sus híbridos. Incorporan conceptos basados en la evolución biológica, la resolución
inteligente de problemas, las ciencias matemáticas y físicas, el estudio del sistema nervioso
y la mecánica estadística". Un poco más adelante los autores describen a la disciplina de la
siguiente forma: "Las metaheurísticas son una clase de métodos aproximados, que están
diseñados para atacar problemas de optimización combinatoria difíciles para los que las
heurísticas clásicas fracasaron en ser efectivas y eficientes. Las metaheurísticas
proporcionan marcos generales que permiten crear nuevos híbridos combinando diferentes
conceptos de: heurísticas clásicas; inteligencia artificial; evolución biológica; sistemas
neuronales y mecánica estadística".
Finalmente, Osman y Kelly comentan: "Debe notarse que existen convergencias teóricas
para algunas de las metaheurísticas bajo algunos supuestos. Sin embargo, estos supuestos
no pueden satisfacerse o aproximarse en la mayoría de las aplicaciones prácticas. Por lo
tanto, se pierde la capacidad para demostrar optimalidad y se obtienen soluciones
aproximadas. A pesar de este inconveniente, las metaheurísticas han sido altamente
exitosas en encontrar soluciones óptimas o cuasi óptimas en muchas aplicaciones prácticas
de optimizaciones en diversas áreas, más que sus heurísticas subordinadas".

Yagiura e Ibaraki (1996) mencionan la combinación de herramientas heurísticas en marcos


más sofisticados como característica distintiva de las metaheurísticas y consideran que dos
de sus propiedades atractivas son la simplicidad y la robustez.
Finalmente y para que conste la estrecha relación entre heurística e inteligencia artificial
presentamos algunas definiciones clásicas de Inteligencia Artificial:

 Systems that can demonstrate human-like reasoning capability to enhance the quality of
life and improve business competitiveness. (Japan-S’pore AI Centre)
 La Inteligencia Artificial es el estudio de técnicas de resolución de problemas con
complejidad exponencial a partir del conocimiento del campo de aplicación del
problema. (Rich)

Tipos de algoritmos Heurísticos

En una primera clasificación podemos decir que los algoritmos heurísticos pueden ser
simples o complejos. Los algoritmos simples tienden a tener reglas de terminación bien
definidas, y se detienen en un óptimo local, mientras que los algoritmos más complejos
pueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzar
un punto de parada arbitrario.
Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación,
esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnos
con algoritmos que fueron diseñados para dar solución a problemas de búsqueda de
óptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducir
conocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemas
basados en el conocimiento.
Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:

 Búsqueda Tabú
 Temple Simulado
 Algoritmos Genéticos
 Redes Neuronales
 Agentes inteligentes

Los sistemas basados en el conocimiento definen un área muy concreta dentro de la


inteligencia artificial, conocida como Ingeniería del conocimiento. Los sistemas
desarrollados en este campo siguen un patrón heurístico similar al razonamiento humano.

Búsqueda Tabú
La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos de
Glover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Según
su creador, es un procedimiento que "explora el espacio de soluciones más allá del óptimo
local", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución,
una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos se
califican como tabús durante las siguientes iteraciones para evitar que se vuelvan a
soluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo de
inhibición a algo debido a connotaciones culturales o históricas y que puede ser superada en
determinadas condiciones. (Glover).

Temple Simulado
El uso del temple simulado en problemas
de Optimización se ha extendido desde
mediados de los ochenta hasta ahora, a
partir de los trabajos de Kirpatrick, Gelatt
& Vecchi. Los algoritmos Temple
Simulado están basados en una estrecha
analogía entre los procesos físicos
termodinámicos y los elementos de un
problema de optimización combinatoria.
Aunque asintóticamente estos algoritmos
se comportan como exactos, (un análisis
exhaustivo de esta afirmación se puede
encontrar en el trabajo de Aarts & Korst),
en la práctica se diseñan como heurísticos.
El campo de aplicaciones se ha extendido
durante estos años. En problemas de rutas
destacan las aportaciones de Osman, para
el VRP; y Aarts y otros, para el problema
del viajante de comercio.

Algoritmos Genéticos
En los años setenta, de la mano de John Holland surgió una de las líneas más prometedoras
de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se
inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen
evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a
las que actúan en la evolución biológica (mutaciones y recombinación genética), así como
también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles
son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son
descartados.

Redes Neuronales
En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo de
aprendizaje y procesamiento automático basado en el funcionamiento del sistema nervioso
animal. Se trata de simular el comportamiento observado en las redes neuronales biológicas
a través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados,
ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestas
similares a las del cerebro humano, caracterizadas por su generalización y robustez.
Sistemas expertos
Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: en
primer lugar el del analizar el razonamiento de un experto en la materia para poder
codificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesis
artificial de los razonamientos para que se parezcan a los del experto humano en la
resolución de un determinado problema. Estos dos intereses han hecho que los
investigadores del campo de la IA intenten establecer una metodología que les permita
verificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento
(formal, deductivo, inductivo...), además de construir los elementos necesarios para
modelizarlos.
Mientras que en la programación clásica se diferencia solamente entre el programa y los
datos, en los sistemas expertos se diferencian tres componentes:

 Una base de conocimientos


 Una base de hechos
 Un motor de inferencia
La base de conocimientos
almacena toda la información
específica relativa al campo de
conocimiento deseado. Para ello se
hace uso de un lenguaje específico
para representar los conocimientos
y que permite definir al experto su
propio vocabulario técnico.
En la base de hechos se encuentran
los datos relativos a los problemas
que se quieren resolver con la
ayuda del sistema. La memoria de
trabajo almacena los resultados
intermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que puede
utilizarse para explicar la forma en la que el sistema ha deducido la información durante
una sesión de trabajo o describir el comportamiento del propio sistema. Al comienzo del
período de trabajo, en la base de hechos sólo se encuentran los datos introducidos por el
usuario del sistema, pero a medida que actúa el motor de inferencia, almacena las
inducciones y deducciones que ha llevado a cabo el sistema para conseguir las
conclusiones.
El motor de inferencia, es un programa que a partir del "conocimiento" puede resolver el
problema especificado. Esto se consigue gracias a los datos de la base de hechos del
sistema. Por lo general, las reglas de la base de conocimiento son silogismos demostrativos
(si A es cierto entonces deducimos B). En este caso, el motor de inferencias selecciona,
valida y activa las reglas que permiten obtener la solución correspondiente al problema en
cuestión.
Existen dos tipos de motor de inferencia: los que emplean el razonamiento aproximado
(cuyo resultado puede ser erróneo) y los que usan un tipo de razonamiento a partir del que
se puede obtener resultado verdadero.
Los elementos básicos de todo sistema experto son:

1. Base de conocimientos: diseñada a partir del conocimiento de un experto o


grupo de expertos humanos, está formada por reglas de validez general,
distribuciones de probabilidad,...
2. Motor de inferencia: sistema de procesamiento lógico o probabilístico que
permite obtener unas conclusiones a partir de unos datos.
3. Interface de usuario: medio de comunicación entre el usuario y la máquina.
A través de la interface el sistema solicita datos al usuario y le muestra las
conclusiones obtenidas.
4. Subsistema de adquisición de conocimiento: controla la forma en la que
nuevo conocimiento es incorporado a la base de conocimientos.
5. Subsistema de explicación: se encarga de justificar las conclusiones
obtenidas.

Esquema de funcionamiento de un sistema experto


Agentes inteligentes

En los últimos años, dentro de la Inteligencia Artificial se están dedicando importantes


esfuerzos a la construcción de programas conocidos como agentes inteligentes. Se trata de
programas capaces de llegar a averiguar los gustos o preferencias del usuario y adaptarse a
ellos. Aunque son muchos los posibles usos, uno de los más destacados es la búsqueda de
información en Internet. En la red pueden encontrarse ya programas que son capaces de
llegar a identificar los temas de interés de un usuario particular a partir de las búsquedas
que habitualmente realiza, una vez identificados esos temas pueden actuar como filtros,
mostrando al usuario únicamente la información que le pueda resultar relevante, o
informando automáticamente de la aparición de nuevas páginas sobre sus temas de interés.
(Cobo O. Ángel).

Introducción a la verificación en la ingeniería del conocimiento.

Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre sus
fases con una destinada a la evaluación del sistema desarrollado.

Fases habituales en la ingeniería del conocimiento:

1. Estudio de viabilidad
2. Adquisición del conocimiento
3. Conceptualización (análisis)
4. Formalización (diseño)
5. Implementación
6. Evaluación
La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientes
aspectos a tener en cuenta

 Verificación
 Sintaxis y estructura adecuada (no redundante, completa, consistente)
 Se realiza en modelos conceptuales, formales y computables
 Validación
 Semántica adecuada [experto]
 Se realiza en modelos conceptuales, formales y computables

Por lo tanto podemos considerar como un proceso fundamental en la evaluación de


"software inteligente" la creación de modelos matemáticos.

Modelos Matemáticos

Una de las fases del método heurístico se


basa en construir modelos. Aunque
existen muchas definiciones de modelo,
una de las más interesantes es la de Aracil: "Un modelo constituye una representación
abstracta de un cierto aspecto de la realidad, y tiene una estructura que está formada por los
elementos que caracterizan el aspecto de la realidad modelada y por las relaciones entre
estos elementos".
Nosotros estamos interesados en modelos formales basados en la lógica matemática, y estos
están basados en un conjunto de relaciones matemáticas (relaciones lógicas, ecuaciones,
inecuaciones, etc.) que representan las relaciones existentes en el mundo real. Un modelo
queda por lo tanto definido por las relaciones que contiene.
Podemos clasificar los modelos matemáticos según su función:

 Modelos predictivos: Son aquellos que nos informan sobre el comportamiento de la


variable en el futuro, esto es, lo que debería ser. Los modelos basados en técnicas
estadísticas se corresponden con este tipo.
 Modelos evaluativos: Se basan en medir las diferentes alternativas para comparar los
resultados de ellas. Este es el caso de los árboles de decisión.
 Modelos de optimización: Estos modelos tratan de localizar un optimo del problema
(generalmente el óptimo global), es decir, buscan la mejor alternativa posible. Están
basados en técnicas de programación matemática.
Una vez se ha mostrado una breve clasificación de los modelos, es necesario aportar una
medida de su solución, puesto que el objetivo de definir un modelo es, resolverlo
"cómodamente" y extraer los resultados necesarios para tomar alguna decisión.
La resolubilidad de los problemas depende de tres características:

1. El tamaño del problema: La variables y ecuaciones que contiene. para un mayor


número de éstas resultará más difícil resolver el problema.
2. El tipo del problema: entero, lineal y no lineal. Los problemas lineales son "fáciles"
de resolver, mientras que los no lineales son muy difíciles.
3. El tipo de instancias: Deterministas o ciertas, con riesgo (conociendo la
probabilidad de ocurrencia), con incertidumbre (se conocen los posibles resultados
pero no la probabilidad de que ocurran) y turbulencia (no conocemos ninguna
cosa).

Punto de inflexión de la disciplina

En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una
máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso
un «juego de imitación». En la prueba de Turing intervienen dos personas y un
computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la
terminal de una computadora. Cuando aparecen las respuestas en la terminal, el
interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si
actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina
podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la
prueba a finales del siglo XX.
De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus
repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia
artificial como una imitación del comportamiento humano no fue tan práctico a lo largo
del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera
similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los
pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde
luego, el enfoque del comportamiento humano y el del pensamiento humano siguen
siendo estudiados por las ciencias cognitivas4 y continúan aportando interesantes resultados
a la Inteligencia Artificial, y viceversa.

Disciplinas sobre las que se apoya

La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial


las dos fuerzas más importantes fueron la lógica matemática, la cual se desarrolla
rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los
avances en electrónica que permitieron la construcción de los primeros computadores en
1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la
lingüística. La lógica matemática ha continuando siendo un área muy activa en la
inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas
lógicos deductivos.

4
Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada y
transformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergencia
transdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales y
emergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso,
incorporados, y que típicamente se les denomina como: mente y comportamiento.

La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter como
multidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, la
psicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia y
la antropología cognitiva.
Orígenes y Evolución Cronológica

Antecedentes

Los juegos matemáticos antiguos, como el de


las Torres de Hanói (hacia el 3000 a. C.),
muestran el interés por la búsqueda de un modo
resolutor, capaz de ganar con los mínimos
movimientos posibles.

Cerca de 300 a. C., Aristóteles fue el primero


en describir de manera estructurada un conjunto
de reglas, silogismos, que describen una parte
del funcionamiento de la mente humana y que,
al seguirlas paso a paso, producen conclusiones
racionales a partir de premisas dadas.

En 250 a. C. Ctesibio de Alejandría construyó


la primera máquina autocontrolada, un
regulador del flujo de agua que actuaba
modificando su comportamiento
"racionalmente" (correctamente) pero
claramente sin razonamiento.

En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de manera
artificial.

En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa
que los silogismos de Aristóteles, pero aún algo poco potente.

En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la
cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.

En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números
Calculables", un artículo que estableció las bases teóricas para todas las ciencias de
computación, y que puede considerarse el origen oficial de la informática teórica. En este
artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que
formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras
digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y
ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las
ciencias de la computación porque demostró que no es posible resolver problemas con
ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por
lo que se le considera el padre de la teoría de la computabilidad5.

En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en


1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de

5
La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que
pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la
computabilidad se interesa a cuatro preguntas:

 ¿Qué problemas puede resolver una máquina de Turing?


 ¿Qué otros formalismos equivalen a las máquinas de Turing?
 ¿Qué problemas requieren máquinas más poderosas?
 ¿Qué problemas requieren máquinas menos poderosas?

La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de
diversos recursos en diversos tipos de máquina.
programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igual
concepto, fueron la ABC y ENIAC.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales,


el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando
todavía no existía el término.

1950´s

En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing


Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una
máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el
padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que
quienes defendían la posibilidad de emular le pensamiento humano a través de la
computación y fue coautor del primer programa para jugar ajedrez.

En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva
generación de computadoras mucho más rápidas y pequeñas.

Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de los
ambientes especializados. La ambición exagerada en los objetivos planteados se contrapuso
con las limitaciones de la tecnología de la época, lo que conllevaría una desilusión
generalizada al final de estos años, y no solo por estas limitaciones, sobre todo por la
constatación teórica de la imposibilidad de obtener resultados en ciertos casos.

A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos más
destacados se encuentran:6

- Logic theorist. (1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw y
buscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que o
bien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera.

En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia


convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta
conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo
que provocó el abandono casi total de las investigaciones durante quince años.

- General Problem Solver.(GPS) Este programa intentaba resolver problemas mediante una
técnica que permitiera, dados el objetivo y los medios disponibles, encontrar la manera de
utilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudo
aplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobre
el dominio.

6
Fuente de consulta. Historia e la inteligencia artificial.
http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm [On line] Consultado el 20
de julio de 2012.
- Perceptrón. (1958). Fue iniciado por Frank Rosenblatt, con la intención de determinar
algunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía que
la conducción de la información a través de las redes neuronales tenía un gran componente
aleatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo que
fuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky y
Papert con su "Perceptrons: An Introduction to Computational Geometry" pusieron de
manifiesto las limitaciones de este tipo de redes, como el de solucionar problemas que no
sean linealmente separables, el Perceptrón ha servido como base para otros modelos de red
neuronal como la Adaline, o las redes multicapa.

- LISP. (1958). Jhon McCarthy creo el lenguaje de programación de los investigadores de


la IA

- SAINT. (1961) Programa de J. Slagle, que inicia la automatización de la integración


simbólica.

- Geometry Theorem Prover. (1958). Programa desarrollado por IBM para resolver
problemas geométricos.

- Programa para jugar a las damas. (1962). Creado por Samuel, y también desarrollado
por IBM, era capaz de aprender de la experiencia, y corregir sus propios errores para
partidas posteriores. Bernstein logró lo mismo para el ajedrez, pero las quejas de los
accionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabo
con estos proyectos.

- Traducción Automática. Tras la II Guerra Mundial, en la que los británicos utilizaron


ordenadores para descifrar códigos secretos nazis, la CIA intento crear un programa que
tradujera casi en el acto cualquier texto de cualquier idioma, pero tras un gran esfuerzo
humano y económico el proyecto resulto un fracaso y se paralizaron todos las
investigaciones lingüísticas financiadas con dinero público. Un ejemplo del resultado de la
traducción del inglés al ruso y luego del ruso al inglés.

Original en ingles: El espíritu es fuerte, pero la carne es débil.

Resultado después de traducir al ruso y luego al inglés: El vodka es bueno, pero el filete
está podrido.

- Micromundos de Bloques. (1963). Tras desistir de los intentos en visión artificial, en los
que se intentaba conectar una cámara a un ordenador y que este describiera lo visto, se
intento llevarlo a cabo con unos objetivos más humildes. Los micromundos son
"representaciones" de laboratorio de la vida real, donde quien interactué con la realidad sea
un ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creado
por Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas del
tipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIR
comprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", es
decir, detectando unas palabras clave en una posición determinada obtenía la información
necesaria.
- ELIZA. (1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT,
permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importancia
dentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos",
como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc).
Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues este
programa, en medio de una conversación, intercala frases hechas que un humano no
utilizaría.

- SHAKEY. (1969) Un equipo de investigación de Stanford tuvo la idea de poner ruedas a


un robot. El ejército americano vio en este proyecto la posibilidad de lograr un espía
mecánico, pero su apariencia no pasaba ni mucho menos inadvertida, y se redefinió el
proyecto. Al robot se le llamo Shakey, y se investigo su uso para recibir órdenes y llevar
objetos a determinados sitios, pero el proyecto dejo de ser subvencionado.

- DENTRAL. (1965) También en Stanford, y es el primer sistema experto. Significa árbol


en griego, y permitió a los químicos estudiar las características de un compuesto químico,
ya que hasta entonces su única forma de investigación era tomar hipótesis y compararlas
con los resultados experimentales. El exceso de optimismo, como anunciar con antelación
resultados que luego nunca se conseguirían marcaron hizo mucho mal a la inteligencia
artificial, y así, subestimar la dificultad de los problemas a los que se enfrentaban
desacreditaron mucho a la IA, llegando incluso a perder subvenciones millonarias.

1970 a 19797

Durante este periodo, se inicia la institucionalización de la comunidad científica de la IA,


con el Primer Congreso Internacional de Inteligencia Artificial y la aparición de la primera
revista especializada, Artificial Intelligence. También, se extiende su estudio de los círculos
académicos a centros de investigación y a las universidades, donde se tratan problemas
menos teóricos y se realizan aplicaciones más experimentales, como los sistemas expertos y
la programación lógica.

El exceso de optimismo y sus nefastas consecuencias dieron paso a un replanteamiento de


los objetivos y como consecuencia el tratamiento de problemas más concretos. Se
empezaron a utilizar sistemas expertos, que se basan en la simulación del razonamiento
humano y que supuso un gran avance, los mas destacados son:

- MYCIN (1976) Creado en Stanford por Feigenbaum y Buchanan se trata de un sistema


experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis
de sangre, cultivos bacterianos y otras datos, es capaz de determinar, o al menos sugerir el
microorganismo causante de la infección, y después de esto, recomienda una medicación
que se adaptaba perfectamente a las características del sujeto.

- PROSPECTOR (1978) Sistema experto capaz de encontrar yacimientos de minerales, en


particular cobre y uranio.

7
Ibid.
- XCON (1979) Creado por Jhon McDermott, es el primer sistema experto con aplicaciones
fuera de los ámbitos académicos y de los laboratorios de investigación. Este sistema
permitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que tenían
configuraciones distintas entre sí, evitando de esta manera que los fallos de estos
ordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posterior
desarrollo logro conseguir los objetivos marcados.

Dentro de la programación lógica se logra uno de los avances mas destacables con la
aparición del lenguaje PROLOG, en 1972 por la Universidad de Marsella. Los éxitos de
estos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizo
que estos programas fueran más rentables y así empezaron a sustituir a personas expertas en
determinadas materias.

1980´s

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar
al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que
este campo sufrió una nueva interrupción en los años noventa.

En 1980 se crea el sistema experto matemático MAPLE, al que sigue en 1988 el


MATHEMÁTICA. Ambos programas permiten trabajar directamente con expresiones
simbólicas como derivadas, matrices o tensores.

En 1982 se funda el ECCAI (European Coordinating Committee for Artificial Intelligence).


En 1985 la Nasa crea el CLIPS, un generador de sistemas expertos codificado en C. Ese
mismo año se crea un juego de ajedrez que alcanza el nivel de Gran Maestro.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente


inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los
atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado
ramas de investigación enorme y diferenciada. Dichos atributos del agente inteligente son:

1. Tiene actitudes mentales tales como creencias e intenciones.


2. Tiene la capacidad de obtener conocimiento, es decir, aprender.
3. Puede resolver problemas, incluso particionando problemas complejos en otros más
simples.
4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o
contradictorias.
5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de
ajedrez)
6. Conoce los límites de sus propias habilidades y conocimientos.
7. Puede distinguir a pesar de la similitud de las situaciones.
8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando
analogías.
9. Puede generalizar.
10. Puede percibir y modelar el mundo exterior.
11. Puede entender y utilizar el lenguaje y sus símbolos.

S-ar putea să vă placă și