Sunteți pe pagina 1din 41

Orígenes

- Inteligencia Artificial -

- HOLA
- HOLA ORDENADOR, ME GUSTARIA QUE ME AYUDARAS.
- ¿DE QUE SE TRATA ?
- NECESITO QUE ME DIGAS DONDE ENCONTRAR UN DIALOGO ENTRE MAQUINA Y
HUMANO.
- ¿PARA QUE ?
- PARA UNA PAGINA WEB.
- NO LO NECESITAS.
- ¿CÓMO QUE NO ?, ¡ LO NECESITO PARA MAÑANA !
- YA TE HE DADO UNO.
Este es un claro ejemplo de lo que podría ser una conversación de un humano con
una máquina en el futuro, aunque actualmente estamos muy lejos de llegar a esto.

El amanecer de una nueva ciencia


La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts
propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas
nerviosas abstractas proporcionaron una representación simbólica de la actividad
cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del
mismo campo, que se llamó " cibernética", de aquí nacería , sobre los años 50, la
Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron como base la
neurona formalizada de McCulloch y postulaban que :
" El cerebro es un solucionador inteligente de problemas, de modo que
imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya practicamente
imposible, ni que mencionar que el hardware de la época ni el software estaban a la
altura para ralizar semejantes proyectos.
Se comenzó a considerar el pensamiento humano como una coordinación de tareas
simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo
que ellos consideraban como los fundamentos de la solución inteligente de
problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades
simples.
Por lo tanto podemos decir a grandes rasgos que la Inteligencia Artificial es una
ciencia que intenta la creación de programas para máquinas que imiten el
comportamiento y la comprensión humana, que sea capaz de aprender, reconocer y
pensar, aunque esto último está por ver, ya que, realmente, ¿qué significa pensar?
y ¿en qué consiste el pensamiento?.
http://www.fortunecity.com/skyscraper/chaos/279/index.htm

Eliza, la psicoterapeuta
El programa
Todos los hombres son iguales.
¿EN QUÉ SENTIDO?
Siempre están dándonos la lata de una forma u otra.
¿PUEDES DARME UN EJEMPLO CONCRETO?
Por ejemplo, mi novio me ha hecho venir aquí.
TU NOVIO TE HA HECHO VENIR AQUÍ.
Dice que ando deprimida la mayor parte del tiempo.
ME DA PENA OÍR QUE ESTÁS DEPRIMIDA.
Es verdad, soy infeliz.
¿PIENSAS QUE EL VENIR AQUÍ TE VA A AYUDAR A NO SER INFELIZ?
Sólo sé que necesito ayuda.
¿QUÉ SUPONDRÍA PARA TI EL RECIBIR AYUDA?
Quizás aprendería a llevarme bien con mi madre.
CUÉNTAME MÁS COSAS DE TU FAMILIA.
Mi madre cuida de mí.
¿QUIÉN MÁS EN TU FAMILIA CUIDA DE TI?
Mi padre.
TU PADRE.
Tú eres como mi padre en cierto sentido.
¿QUÉ PARECIDOS VES?
No eres muy agresiva, pero me parece que no quieres que lo note.
¿QUÉ TE HACE PENSAR QUE YO NO SOY MUY AGRESIVA?
Tú no discutes conmigo.
¿POR QUÉ CREES QUE NO DISCUTO CONTIGO?
Me tienes miedo.
¿TE GUSTA PENSAR QUE TE TENGO MIEDO?
Mi padre tiene miedo de todo el mundo.
¿QUÉ OTRAS COSAS SE TE OCURREN CUANDO PIENSAS EN TU PADRE?
Matones.
¿TIENE ESTO ALGO QUE VER CON QUE TU NOVIO TE HAYA HECHO VENIR
AQUÍ?

Los comentarios
"No imaginaba que un contacto extremadamente breve con un
programa de ordenador relativamente simple podía provocar
pensamientos engañosos en gente por lo demás bastante normal"
Weizenbaum, J. 1976. "Computer Power and Human Reason: From
Judgement to Calculation". San Francisco: W.H. Freeman.
"[Una vez que el programa esté listo para su uso clínico]
proporcionará una herramienta terapéutica que puede ponerse
ampliamente a disposición de hospitales de enfermos mentales y
centros psiquiátricos con escasez de terapeutas...Un sistema de
ordenadores diseñado para este fin podría tratar varios cientos de
pacientes cada hora."
Colby, K.M., Watt, J.B, Gilbert, J.P. 1966. "A Computer Method of
Psychotherapy: Prelimary Comunication", Journal of Nervous and Mental
Disease, 142, pp.148-152.

Las preguntas
• ¿Es cierto que hay en nuestra sociedad una voluntad, o incluso un deseo, de
confiar a los ordenadores el bienestar de los seres humanos?
• ¿Cual es la cuestión importante en AI: si las máquinas que persigue podrán
alguna vez construirse o si las maquinas que persigue deberán jamás
construirse?

Los problemas
• El programa carece de las capacidades que habitualmente asociamos a la
inteligencia:
• conocimiento del entorno
• capacidad de razonamiento
• diseño de planes de acción
• aprendizaje
• comprensión de los propios motivos

http://web1.cti.unav.es/asignaturas/ia/tsld008.htm

por David Navarro, G'


En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason [El
poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía la
viabilidad de la I.A., pero se oponía a ella basándose en razones morales. Hacia
1965, Weizenbaum trabajaba en el MIT, intentando que los ordenadores hablaran
en inglés con la gente. Pensó que los programas existentes como STUDENT se
basaban en dominios limitados, y los dominios que describían esos programas
estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se
dio cuenta de que no podría conseguir ese fin en tan poco tiempo, penso en crear
un programa con unas cuantas ideas que se le habían ocurrido. Una de esas ideas
era que el conocimiento sobre los dominios se encontrase en módulos ajenos al
propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno
de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano
(el psicoanalista Carl Rogers ponía en funcionamiento una terapia que consistía
simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a
sus preguntas con otras preguntas). El programa en cuestión recibió el nombre de
ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista ELIZA
parece estar hablando animadamente con la persona que le cuenta sus problemas,
la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está
hablando con "un ser" que razona y entiendo, realente todo ello se logra mediante
trucos como repetir frases cambiando "yo" por "tu", o echar mano a una frase del
principio cuando el "hilo" se acaba transformándola en pregunta. Otro truco
utilizado por este programa es insertas frases como "ya veo" o "háblame más
acerca de esto". Algo con lo que contaba a su favor ELIZA era que el planteamiento
de las conversaciones seguirían siempre un patrón común de los psicoanálisis
rogelianos ¿en que otra conversación no iba a resultar extraño escuchar frases
como esta "háblame algo más acerca de los coches rojos con motas verdes que
apartan cerca de tu casa"?. Por lo que no es de extrañar que, cuando Daniel
Bobrow probó como conejillo de indias a un vicepresidente de ventas de la BNN,
haciendo que este hablara con ELIZA mientras creía estar haciéndolo con el mismo
Bobrow a través de un terminal, la conversación entre ambos surgiera así:
Persona>¿Crees que no puedo utilizar el ordenador esta mañana?
ELIZA>¿Por qué me lo preguntas?
Persona>Debería hacer algunas ventas más por la red.
ELIZA>¿Por qué no estas seguro?
Persona> Mis clientes potenciales nunca han visto una demostración de este
sistema
ELIZA>¿Eso significa mucho para ti?
Persona>Naturalmente
ELIZA>Pareces entusiasmado con eso
Persona>Esto es ridículo
ELIZA>¿Qué quieres decir con que esto es ridículo?
Persona>¿Hay alguna razón por la que no pueda utilizar ahora el ordenador?
ELIZA>Cuéntame algo más acerca de tus clientes potenciales

Aunque en cierta forma, nosotros que estamos sobre aviso detectamos algo
"sospechoso" en esta conversación, podríamos decir que esta no es del todo
negativa. Entonces, ¿estamos en posición de afirmar que ELIZA ha superado el test
de Turing?, NO, pues en la prueba de Turing debía de enfrentar a dos partes, una
persona y un ordenador, ambas debían de comportarse de forma normal y habría
que averiguar quien era la persona y quien el ordenador, este hecho quedaría al
descubierto en cuanto ELIZA dijese (por ejemplo): "Cuéntame algo más acerca de
tus gusto por las películas en versión original", en una conversación normal no se
utilizan esas expresiones. Lo que realmente le preocupaba a Weizenbaum era que
mucha gente no se enfrentaba a ELIZA con la actitud adecuada. Aún sabiendo de lo
que se trata realmente, habían personas que llegaban a creerse la humanidad y la
compañía de ELIZA, hasta el punto de que, un famoso científico soviético en una
conversación con ELIZA empezó a hablar con la máquina a un nivel muy personal,
todo ello delante de sus anfitriones norteamericanos (en Stanford). Weizenbaum
explicó en su libro Computer Power and Human Reason, que los seres humanos no
se pueden reducir a una máquina de procesamiento de información puesto que, en
gran medida, un organismo se define por los problemas que puede abordar.
Nosotros nos enfrentamos a problemas de los que ninguna máquina puede hacerse
cargo. Hay nociones que ninguna máquina podrá entender nunca porque las
máquinas no comparten nuestros objetivos.

http://lorien.die.upm.es/~macias/doc/pubs/aircenter99/www.aircenter.net/mc13039910.html

EVOLUCION HISTORICA

Prehistoria de la IA
Así como de alguna forma los soportes mecánicos para la automatización de
cálculos aritméticos se sitúan en la prehistoria de los computadores, la prehistoria
de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización
hasta mediados del siglo veinte. En este período se producen hechos que podemos
agrupar en dos líneas: Una de ellas, directamente relacionada con al construcción
de autómatas que simulaban desde el punto de vista externo el comportamiento
humano o animal, y que solían funcionar en ayuda de su amo. La otra línea,
referente a la información y automatización del razonamiento lógico y matemático.
En relación con los autómatas, siempre se ha relacionado la inteligencia con los
aparatos mecánicos complejos. Los hombres, intuitivamente, han comparado la
complejidad del funcionamiento de una máquina con su propia vida mental.
La tradición judía creó el mito del "golem", figura humanoide hecha de arcilla a la
que un rabino podía insuflar vida propia, convirtiéndola en un perfecto criado. Sin
embargo, se requería la intervención divina para conseguir estos espectaculares
resultados.
Al llegar el relacionista siglo XVIII, el siglo de los autómatas por antonomasia, las
cosas fueron muy diferentes. Como es sabido, Descartes había defendido la tesis
del "animal-máquina": los seres vivos, salvo el hombre, son meros mecanismos.
El escritor Capek difunde en 1920 una palabra destinada a tener gran éxito:
"robot". En su obra "RUR" aparecen unos seres creados para realizar las tareas que
el hombre no quiere hacer, que acaban siendo más poderosos que el mismo
hombre, llegando a poner en peligro su existencia.
Hasta la llegada de los ordenadores electrónicos no dispusieron los científicos y
técnicos de una herramienta que permitiera la ejecución de tareas más complejas
por parte de dispositivos mecánicos; que hiciera posible, por así decir, la
construcción de golems y robots.
La automatización del conocimiento: Al llegar al siglo XIX, los matemáticos sienten
por su parte la necesidad de abandonar la institución como fundamento de su
ciencia y buscar para su razonamiento más sólidas bases. La aparición de las
paradojas lleva al desarrollo de los sistemas formales y de lógica matemática. Las
escuelas de Rusell o de Hilbert reducen el razonamiento a la manipulación abstracta
de cadenas de símbolos.
Las teorías de la computabilidad y de los autómatas proporcionaron el vínculo entre
la formalización del razonamiento y las máquinas que estaban a punto de surgir
tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la aparición
de las primeras máquinas electrónicas de computo fuera seguida inmediatamente
por los intentos de aplicarlas a la que hoy llamamos IA.
Un último elemento importante es la cibernética. Esta influyó en muchos campos
debido a su naturaleza fundamentalmente interdisciplinaria, ligado entre sí la
fisiología neuronal. Las ideas de los creadores de la cibernética llegaron a ser parte
del espíritu del tiempo, e influyeron fuertemente en los primeros investigadores de
la IA.

El nacimiento de la IA
El fracaso de la mayoría de los problemas que intentaban resolver eran demasiado
complicados, tanto teórica como tecnológicamente.
La lógica teórica fue considerada como el primer programa de IA y usada para
resolver problemas de búsqueda heurística.
Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de
investigación y en 1954 uno de ellos afirmó haber creado un programa que traducía
del ruso al inglés. La verdad es que los resultados prácticos fueron
descorazonadoramente escasos.
De todas formas, el resultado más espectacular de este período fue el programa de
Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de aprender
de su experiencia, es decir, tener en cuenta sus errores y éxitos pasados, para
determinar sus jugadas en la partida posterior.

Los años difíciles


Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos, que
el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió de los
trabajos de investigación, y la financiación de muchos proyectos se volvió
problemática, tanto en América como en Europa. No obstante, la IA se fue
consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los
viejos problemas.
En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que es un
programa de lenguaje natural que comprende y resuelve problemas elevados de
álgebra.
Es en 1966 cuando se publica, en Comunicaciones de la Asociación para Máquinas
Calculadoras, un programa de ordenador para el estudio de comunicación hombre-
máquina mediante lenguaje natural interactivo, ELIZA, que fue creado como un
programa de psicología que simula respuestas de un terapista en dialogo
interactivo con un paciente. Las personas que dialogaban con ELIZA creían que
hablaban con un psicólogo auténtico.
A partir de 1970, el énfasis se trasladó de las reglas y procedimientos generales de
deducción a la acumulación de conocimientos concretos de un campo bien
delimitado en la realidad. El célebre programa SHRDLU era una parte de acerca un
proyecto de comprensión del lenguaje natural capaz de comprender y ejecutar
correctamente órdenes dadas en inglés acerca de un "mundo de bloques". Ello era
posible porque el programa tenía todos los conocimientos necesarios acerca de su
limitado y simplificado mundo.
Los sistemas expertos alcanzaron una sorprendente efectividad a la hora de
responder a complicadas cuestiones de diagnóstico médico o prospección minera.
Esto se conseguía limitando el razonamiento a un ámbito restringido del mundo
real, acumulando en el programa una gran cantidad de conocimientos. En esta
época, una de las principales actividades fue el diseño de sistemas expertos. La
llamada Ingeniería del conocimiento fue acumulando técnicas y herramientas para
la representación, recolección y empleo de conocimiento experto en un campo
dado.
Los trabajos hasta 1973, tuvieron como herramientas básicas de trabajo los
conceptos de tiempo compartido en ordenadores y procesamiento de palabra. La
investigación más normal incluye: visón con ordenador, todas las áreas de la
robótica, sistemas expertos, lenguaje natural y arquitectura de ordenadores.
La investigación en visión artificial a través del Programa de Comprensión de
Imagen, incluye un desarrollo de la teoría de la visión y del hardware para
procesado de imágenes.
Se lanzaron ataques contra la IA basándose en la introspección, afirmó que ciertos
aspectos del pensamiento humano son esencialmente inimitables por parte de los
ordenadores, dando varias razones de apoyo a esta tesis: de una parte, los
ordenadores son máquinas discretas, mientras que el pensamiento aparece en
nuestra introspección como continuo; además, los ordenadores carecen de
"corporeidad", por lo que no pueden relacionarse como nosotros con el espacio
físico; por último, los ordenadores no comparten nuestras experiencias, nuestro
contexto humano, por lo que no pueden ser como los seres humanos.
En cualquier caso, las controversias no desanimaron a los investigadores, que
empezaban a alcanzar resultados tangibles. En esto les ayudaba grandemente el
acelerado progreso del soporte material, con la aparición de los circuitos y el
aumento consiguiente de capacidad y potencia de cálculo. También el soporte
lógico empezaba a adaptarse a las necesidades de la IA. La aparición de lenguajes
declarativos fue un paso importante para la IA.
El AM es un programa típico de aprendizaje que define y evalúa conceptos
matemáticos con teoría de conjuntos y números.

El desarrollo actual
Las instituciones públicas y los gobiernos percibieron los grandes adelantos que,
calladamente, había realizado la IA en el decenio de los años setenta. Las empresas
y organizaciones se vieron seducidas por las posibilidades que los sistemas
expertos y la "ingeniería del conocimiento" tenían para aumentar su eficiencia.
Por todo ello, la IA volvió a ser tema de moda, y el impulso definitivo vino de
Japón. En 1979, el Ministerio de Industria y Comercio Internacional del Japón
decidió desarrollar una nueva generación de ordenadores que cumplieran las
necesidades previsibles para la década de los noventa. Aquel mismo año se creó un
grupo de trabajo para estudiar la cuestión. En 1981 se publicaba el informe
elaborado con las contribuciones de unas 150 personas, aprobando el gobierno
japonés los créditos presupuestarios para los que se llamó el Proyecto de la Quinta
Generación de Computadores.
Los demás países respondieron con escepticismo al desafío japonés. Los
americanos, conscientes de su adelanto de varios años y de su mayor potencia
económica y científica, no parecieron muy preocupados. La firma IBM no ha
mostrado en los últimos tiempos un interés excesivo por la IA; aunque acaso esté
reconsiderando su postura.

Investigación y desarrollo en áreas de la IA


Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado
con éxito que pueden resolver complicados problemas de forma masiva, se han
desarrollado en sistemas que:
1. Permiten al usuario preguntar a una base de datos en cualquier lenguaje que
sea, mejor que un lenguaje de programación.
2. Reconocen objetos de una escena por medio de aparatos de visión.
3. Generar palabras reconocibles como humanas desde textos computarizados.
4. Reconocen e interpretan un pequeño vocabulario de palabras humanas.
5. Resuelven problemas en una variedad de campos usando conocimientos
expertos codificados.
Los países que han apadrinado investigaciones de IA han sido: EEUU. , Japón,
Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y
cooperativas de riesgo y ventura, así como con universidades, para resolver
problemas ahorrando dinero. Las aplicaciones más primarias de la IA se clasifican
en cuatro campos: sistemas expertos, lenguaje natural, robótica y visión, sistemas
censores y programación automática.

http://www.unitec.edu.co/biblioteca/ia/tm42ia.html

La ingeniería del conocimiento


.

El programa ELIZA
Casi cada publicación famosa en la IA menciona el programa ELIZA que fue escrito
a finales de los sesenta por el profesor Joseph Weizenbaum de Massachusetts
Institute of Technology (MIT). El progrma fue diseñado como una ayuda al análisis
del lenguaje y el profesor J. W. Lo llamo así en honor a la muchacha que aparece
en la obra de G. B. Shaw, que comenzó como una vendedora callejera de flores y
su vida se transformo cuando el profesor de dicción le enseño a hablar un correcto
ingles, quien asumió esta tarea como parte de una apuesta. Un elemento muy
importante del mensaje de Shaw era que aunque Eliza continuaba siendo la misma
persona, con las misma virtudes y defectos antes y después de su transformación,
la gente la veía de un manera deferente, como una señorita bien vestida y con un
acento culto, en contraste con la desastrada vendedora de flores que hablaba de
una forma vulgar. Podemos obtener la moraleja de esta historia y observar que
aunque un programa sea muy complejo la computadora sigue siendo una
acumulación inanimada de dispositivos electrónicos y que, aunque algunos de los
resultados puedan ser sorprendentes la maquina es capaz de ejecutar únicamente
las tareas para las cuales fue exactamente programada y nada más.
El programa MYCIN
La especialización de en cualquier actividad requiere un gran conocimiento de
asociado. El proceso para poder practicar una cierta actividad depende de la
asimilación de esta conocimiento. Un conjunto de hechos constituyen una gran
parte del conocimiento basico sobre un tema, pero son igualmente importantes la
destreza que se puede adquirir con la experiencia, las ideas generales en algunos
casos acerca de lo que es una buena practica y el arte de tomar un decisión
acertada basándose en información incompleta. Esto resulta tan importante para el
aprendizaje de cualquier materia o para que el estudiante de cualquier ciencia
adquiera los aspectos sutiles del tema, como aprender las premisas básicas. En la
creación de un sistema experto hay una parte bastante inmediata de codificación de
los hechos conocidos sobre un tema; la parte mas difícil, conocida como
modelización de la maestría, consiste en la formulación y aplicación de reglas
extraídas de la experiencia que se posee en el tema. En cualquiera de los casos el
sistema esta constituido por una base de conocimientos que proporcionan los
hechos y un motor de inferencia para desarrollar las deducciones lógicas y tomar
decisiones (algunas veces acompañadas de un porcentaje de probabilidad acerca de
la corrección de las deducciones ), basadas en los hechos y reglas conocidas.
El programa MYCIN publicado por E. Schortcliffe en 1976 es un sistema que
diagnostica enfermedades infecciosas, en particular infecciones sanguíneas. MYCIN
lo usan médicos en practicas para obtener ayuda en sus diagnósticos, a su vez el
sistema se actualiza con los hechos y reglas de inferencia que proporsionan los
especialistas.

El programa DENDRAL
DENDRAL es un programa experto de análisis químico y se ha aplicado con mucho
éxito en muchos lugares del mundo. DENDRAL soluciona un problema de ingenieria
química en tres fases. En primer lugar, el programa infiere cualquier posible
restricción sobre la solución basándose en el conocimiento que posee en su base de
datos. A continuación permite a los usuarios añadir cualquier otro tipo de
restricción y finalmente genera y comprueba una lista de posibles soluciones, que
imprime en orden de preferencia. DENDRAL se escribió originalmente en LIPS, pero
ha sido reprogramado para ser usado en varias maquinas diferentes de entre las
que se destaca la implementación realizada sobre un PDP-10 en Edimburgo. Este
programa basado en la estrategia de "planificar, generar y comprobar" se usa en
las universidades y en las industrias de Estados Unidos y en Europa y representa
una de las aplicaciones practicas de la IA que mas éxito ha conseguido de entre las
desarrolladas hasta la fecha.

http://www5.gratisweb.com/comarsc/inar4.htm

INTELIGENCIA ARTIFICIAL: ¿DE QUÉ SE TRATA?

INTRODUCCIÓN
El término "inteligencia artificial" (abreviado IA) se ha popularizado para designar a
una disciplina incluida entre las ciencias de la computación. Tiene que ver con el
esfuerzo que decenas de científicos de distintos países, especialmente de los
Estados Unidos y de Europa Occidental, han venido realizando durante los últimos
treinta años para dotar a las computadoras de inteligencia. La frase "dotar a las
computadoras de inteligencia" suele producir una reacción de asombro en muchas
personas, aunque a veces por motivos diferentes: "Pero, es que las computadoras
no son inteligentes?", comentarán algunos que han visto o leído demasiadas
historias de ciencia ficción. Claro que no, habrá que contestarlos, refiriéndonos al
hecho de que la computadora ordinariamente programada no es más que un
instrumento muy rápido y generalmente confiable de hacer operaciones aritméticas
o de manipular fichas de nombres en orden alfabético (o de ponerlas en tal orden).
Para que una computadora comience a merecer el nombre de inteligente, deberá
ser capaz de realizar acciones que, si realizadas por un ser humano, diríamos que
requieren inteligencia, como jugar ajedrez o mantener un diálogo con otro ser
considerado también inteligente, o resolver algún rompecabezas. Pero para otras
personas la fuente del estupor al ver asociadas las palabras "inteligencia" y
"artificial" consistirá en el hecho de que para ellas la inteligencia y las máquinas son
conceptos esencialmente incompatibles: "Las computadoras pueden hacer
operaciones aritméticas porque para eso sólo se necesita ser capaz de manipular
números en forma mecánica; pero la inteligencia, a diferencia de la capacidad de
manipular números, requiere creatividad, inventiva, iniciativa intelectual, y eso
desde luego solo lo pueden tener los seres humanos, de ninguna manera las
máquinas. Las computadoras pueden hacer lo que sus programadores les dicen,
pero nada más; además, hagan lo que hagan, nunca sabrán lo que están haciendo,
nunca serán conscientes de lo que hacen. Y para ser inteligente se requiere ser
capaz de elegir conscientemente el propio camino en la solución de problemas". La
contestación que podemos darle a esta segunda clase de personas es más
compleja.
LENGUAJES DE PROGRAMACIÓN
Debemos comenzar por aclarar que las computadoras no son simplemente
manipuladoras de números; la idea de que lo son se debe a que inicialmente fueron
diseñadas y construidas por ingenieros que deseaban ponerlas a realizar esa clase
de operaciones. Pero en realidad la computadora manipula cualquier clase de
información, numérica o no numérica; en general, la computadora es una
manipuladora de símbolos. Por otra parte, debemos aclarar también que hay
diversas formas de programar una computadora; cuando se dice que una
computadora sólo puede hacer lo que su programador le ha especificado que haga,
esto es cierto solamente para el caso de cierto tipo de programación, la más común
de todas, la que se hace corrientemente en lenguajes como el COBOL o el BASIC o
el FORTRAN en aplicaciones ordinarias.
Uno de los profetas de la IA, Marvin Minsky, ha clasificado los lenguajes de
programación, para aclarar este asunto, en varios clases:
• lenguajes "haga ahora": el programador instruye a la computadora para
"hacer esto, hacer lo otro, hacer lo de más allá hasta que tal cosa pase";
todo queda especificado, excepto tal vez el número de veces que se hace
cada cosa;
• lenguajes "haga siempre que": permiten escribir un programa para
resolver problemas que el programador no sabe como resolver (pero sabe
qué cosas pueden intentarse, y que eventualmente alguna de ellas resultará
efectiva);
• lenguajes "de constreñimiento": permiten escribir programas en que se
definen estructuras y estados que se condicionan y limitan recíprocamente.
Los dos últimos tipos de lenguaje permiten programar de tal manera que no es
correcto decir que el programador sabe como va a actuar la computadora que
ejecute el programa. El lenguaje del tipo "haga siempre que" se conoce como
"sistema de producción" y está en la base de la mayor parte de los programas
expertos de que trataremos más adelante; los lenguajes "de constreñimiento" son
lenguajes manipuladores de símbolos de carácter funcional o relacional: los más
conocidos son LISP y Prolog, en los cuales se escriben hoy la mayor parte de los
programas de IA de tipo general. Para Minsky no hay duda de que los programas
escritos en los últimos dos tipos de lenguaje exhiben algún grado de inventiva y por
ende de inteligencia; pero admite que todavía será necesario desarrollar por lo
menos dos tipos más elevados de lenguaje para obtener una IA comparable a la
inteligencia humana:
• lenguajes "haga algo que tenga sentido" : permiten al programa
aprender del pasado y en cada nueva situación aplicar sus enseñanzas, y
• lenguajes "mejórese a sí mismo": algún día permitirán escribir
programas que escriban programas mejores que ellos mismos.
Por supuesto que en estos dos casos tampoco será justo decir que el programador
ponga en el programa todo lo que la computadora llega a hacer.

CREATIVIDAD
El tema que estamos tratando tiene desde luego mucho que ver con el concepto de
lo que es creación, o creatividad, en las acciones del ser humano, o de la
computadora. Por lo general planteamos el problema de la creatividad citando las
grandes obras de arte o de genio científico; pero la verdad es que la mayor parte
de las obras humanas ordinarias exhiben un gran contenido de creatividad:
creatividad consiste en ser capaz de combinar los elementos a nuestra disposición
para dar una solución, eficiente (o bella, o sagaz) a un problema con que nos
enfrentamos. Al hablar de IA es equitativo que comparemos a la computadora con
esa habilidad ordinaria, dejando para mejor y futura oportunidad la cuestión de si
puede llegar a haber "genio artificial".
A primera vista, la creatividad es algo que no podemos explicar, resultado de un
don especial; sin embargo, observando con más cuidado podemos llegar a concluir
que todo lo que no entendemos, lo que no hemos explicado todavía, parece así de
misterioso. Decir que una máquina no puede llegar a exhibir creatividad tiene
sentido en la medida en que sepamos con claridad qué es esa creatividad, en qué
consiste: entonces podremos mostrar porqué su naturaleza está reñida con todo
mecanismo; pero el caso es que llamamos creatividad precisamente a aquello que
en nuestro comportamiento todavía no hemos podido explicar; por ejemplo, no
llamamos creatividad, al don de resolver ecuaciones de segundo grado, ¡porque ya
lo exhiben las computadoras! No solo no está bien, con base en nuestra ignorancia
de lo que sea creatividad, negarle a la computadora la posibilidad de llegar a
tenerla, sino que debemos estar agradecidos a la investigación en IA por la
oportunidad de llegar a entender qué es creatividad. En efecto, pareciera que el
trabajo en IA está comenzando a hacer posible encontrar una explicación
satisfactoria a los fenómenos de la creatividad: en la misma medida en que, poco a
poco, logramos escribir programas que exhiben propiedad, en esa misma medida
empezamos a explicamos qué es la creatividad –se dé ella en la máquina o en el
ser humano–.

AUTOCONCIENCIA
La otra propiedad que se espera ver asociada a la inteligencia, porque lo está a la
humana, es la autoconciencia; no se concibe que una máquina piense puesto
que,"evidentemente no se da cuenta de lo que hace". En esta cuestión podemos
argumentar en dos sentidos diferentes, de acuerdo con los resultados de la
investigación psicológica y de la investigación en IA. Por una parte, es un hecho
que el pensamiento humano realiza gran cantidad de funciones que no podemos,
en ningún sentido importante de la palabra, calificar de conscientes; más aún,
parece bien establecido que la autoconciencia contribuye en la mayor parte de las
situaciones a impedir el proceso mental eficiente (por ejemplo, si trato de darme
cuenta de dónde pongo los dedos cuando tecleo en el piano o en la computadora, o
cuáles movimientos hago para conducir un coche, o en qué tono de voz estoy
hablando). Pero por otro lado, es bastante obvio que tener conocimiento sobre sí
mismo, sobre nuestras propias capacidades y limitaciones por ejemplo, es una
ayuda invaluable para el funcionamiento de la inteligencia. Ese tipo de
autoconciencia parece necesario o por lo menos conveniente como un complemento
de la inteligencia; de hecho, muchos programas de IA tienen en algún grado
conocimiento de sí mismos, y no parece que haya nada de especialmente difícil en
ello: al igual que conocen (tienen información) sobre los datos del problema, sobre
su contexto o condicionamientos de circunstancia, tienen –o pueden tener–
conocimiento sobre los recursos de que dispone el programa, sobre las funciones
que en cada momento pueden aplicarse, etc. En realidad, una de las contribuciones
más notables que la IA ha dado a la epistemología es el hallazgo de que a pesar de
que hay muchos niveles de conocimiento (por ejemplo, conocimiento del mundo,
conocimiento de ese conocimiento, conocimiento de las reglas que me permiten
conocer, etc) todos ellos pueden representarse uniformemente en la memoria de
una computadora y manipularse mediante los mismos procedimientos o
procedimientos parecidos. Así pues, y en resumen: en un cierto sentido la
autoconciencia no es importante para la inteligencia (la inteligencia no tiene que
estar observando su funcionamiento para poder funcionar); pero en otro sentido sí
lo es: conocer las propias capacidades y limitaciones es importante para el
comportamiento inteligente tanto de la máquina como del ser humano.

COMPLEJIDAD
Es imposible plantear el tema de la inteligencia, artificial o natural, sin mencionar la
cuestión de la complejidad. Las acciones inteligentes, estamos seguros hoy de ello,
son el resultado de la concurrencia de muchísimos elementos estructurados de una
manera tan compleja como pueda imaginarse; esto es también, con seguridad, una
de las más valiosas lecciones que hemos aprendido tratando de emular en la
máquina los fenómenos intelectuales humanos. No siempre se tuvo este concepto,
sin embargo; para no abundar en reminiscencias filosóficas, para el pensador
griego Platón era claro que la parte racional del ser humano, llamada también
alma, tenía que ser absolutamente simple (de esa simplicidad sacaba argumento
para pensar que el alma era inmortal, puesto que todo lo que muere, perece por
descomposición de sus elementos). Otros pensadores, como Descartes, llegaron a
encontrar la substancia no extensa o espiritual por introspección: al descubrirse en
el acto simple de pensar, "pienso, luego existo". Tal concepción, por más poco
fundamentada empíricamente que estuviera, tenía la virtud de ofrecer una base
muy sencilla para dividir al mundo en dos órdenes: el material, donde reinaba la
complejidad, la composición y la descomposición, y el orden espiritual o intelectual
donde la conciencia, supuestamente simple, era el lugar inextenso donde residían
esas entidades etéreas llamadas ideas. Los seres humanos (o una parte de ellos, el
alma) eran inteligentes o racionales; todos los otros seres de este mundo no lo
eran. En ese planteamiento no había lugar para niveles, grados o tipos de
inteligencia, era una cosa de todo o nada (tanto que para explicar diferencias
individuales de capacidad intelectual se llegaron a postular impedimentos
materiales que reducían las capacidades innatas y originalmente iguales de las
almas). Volveremos en seguida sobre este tema.

INTELIGENCIA
Es muy difícil definir la inteligencia; ya hemos visto que hay resistencia a
equipararla con la capacidad de resolver problemas matemáticos (entonces
resultaría obvio que las máquinas sí pueden pensar, desde que Pascal y Leibniz, en
el Siglo XVII, inventaron máquinas de sumar y de multiplicar); aunque no siempre
fue esto así: para Platón y los pitagóricos, por ejemplo, el conocimiento de las
verdades matemáticas era la más grande prueba de racionalidad. Quién sabe qué
pensarían esos filósofos si pudieran estudiar los programas electrónicos que hoy
despejan ecuaciones, prueban teoremas lógicos y matemáticos o incluso descubren
nuevos conceptos matemáticos a partir de otros ya conocidos (por ejemplo,
descubren los números primos a partir de los conceptos básicos de la teoría de
conjuntos, sin tener ninguna idea previa sobre eso que llamamos número).
Pero volviendo a la posibilidad de definir la inteligencia, creo –siguiendo a John
McCarthy NOTA 1–, que una buena aproximación podría ser la siguiente: Capacidad
que tiene (por lo menos) el ser humano de adaptarse eficazmente al cambio de
circunstancias mediante el uso de información sobre esos cambios. Esta definición
tiene la virtud de explicar por qué tanta gente reaccionó muy negativamente ante
intentos de filósofos de los siglos XVIII y XIX de explicar los fenómenos mentales
dentro del paradigma mecanicista propio de la física de Newton; para ellos la
máquina más típica, a pesar de estar en desarrollo la Revolución Industrial, seguía
siendo el molino de viento o, tal vez más universalmente, el reloj; por ejemplo el
de la gran catedral, a veces capaz de dar vida momentánea a una constelación de
figuras humanas o fantásticas que colaboraban para dar las horas participando en
una secuencia de movimientos preestablecidos. Y, claramente, el reloj, aún el más
elaborado de la catedral medieval, era incapaz de variar su comportamiento de
acuerdo con el cambio de circunstancias del ambiente (por ejemplo, ninguno de
esos muñequitos que desfilaban en lo alto de la fachada de una catedral sacaba su
paraguas si llovía).
Algunas personas pensarán, sin embargo, que la definición es muy amplia, pues de
acuerdo con ella el sistema inmunológico del cuerpo humano (o animal) resultará
inteligente: también él logra adaptaciones eficaces usando para ello información.
Pero el asunto importante aquí es que precisamente la inteligencia hasta ahora ha
sido un fenómeno que se ha dado en seres vivientes, y resulta completamente
natural que podamos distinguir una continuidad entre ciertas reacciones biológicas
de un nivel relativamente bajo y las reacciones más elaboradas de la corteza
cerebral; tal continuidad no solo es de esperar, sino que parece totalmente
necesaria para el que se coloque en la posición en que nosotros nos colocamos de
considerar los fenómenos intelectuales como fenómenos sumamente complejos. La
complejidad, por hipótesis, admite grados; así, si la inteligencia es obra de la
complejidad, habrá toda clase de niveles de inteligencia, desde la más elemental
hasta la más elaborada, dependiendo del grado de complejidad del organismo,
máquina o programa considerados.
Decíamos que fue natural reaccionar contra la identificación de inteligencia y
máquina cuando el prototipo de la máquina era el reloj medieval (el reloj de de
pulsera contemporáneo, digitalizado y con alarmas que pueden ponerse a voluntad
sería un caso menos claro). Sin embargo, los hombres y mujeres del siglo XIX ya
tenían un tipo diferente de máquinas entre ellos que era capaz de reaccionar ante
el cambio de circunstancias de una manera muy flexible y eficiente, es decir, muy
adaptativa. Me refiero a un dispositivo esencial para el funcionamiento de las
locomotoras a vapor, tan ligadas al desarrollo de la Revolución Industrial: el
gobernador, un mecanismo consistente en dos varillas abisagradas terminadas en
sendas esferas de mayor peso; dicho mecanismo lograba mantener constante la
velocidad de la locomotora haciendo uso de la fuerza centrífuga para cerrar la
entrada de combustible que calentaba la caldera. Este es uno de los primeros
casos, si no el primero, de un aparato autorregulado, basado en el fenómeno
conocido como retroalimentación. Parte de la energía de la caldera, una
pequeñísima parte, tanto que podemos ya llamarla información en vez de energía,
se desvía para poner en movimiento el gobernador, el cual al moverse
circularmente hace subir las varillas por fuerza centrífuga y consecuentemente
cierra la válvula que da entrada al combustible, todo en proporción a la velocidad
de la locomotora. Decimos que la energía desviada retroalimenta la propia
máquina, para lograr controlarla, es decir, hacerla autorregulada. Un ejemplo más
moderno es el termostato, que desconecta un aparato de calefacción, o de aire
acondicionado, cuando la temperatura del cuarto coincide con la que se ha
establecido como condición de referencia. Pues bien, decir que la inteligencia puede
explicarse mecánicamente no resulta un enunciado tan escandaloso si lo que
tenemos presente como máquina no es el reloj, insensible al cambio de
circunstancias, sino el gobernador o el termostato, que obviamente están abiertos
al mundo y son capaz de adaptarse por lo menos a algunas de sus vicisitudes
posibles.
Se cuenta que una vez un oponente del concepto de la inteligencia artificial de John
McCarthy, el creador del lenguaje LISP, creyó arrinconar a su interlocutor con la
réplica: "Pero entonces, un termostato resultaría ser inteligente, según la definición
de inteligencia que usted está usando". McCarthy no tuvo ninguna dificultad en
aceptarlo. Y la verdad es que aceptar que un mecanismo elemental de
autorregulación es inteligente no solo es inofensivo, sino que también es
fundamental y necesario. Puesto que la definición de inteligencia como algo
mecánico y complejo implica que hay grados de inteligencia, y que la inteligencia
más elevada está compuesta de inteligencias menos elevadas que interactúan entre
sí. En último término, tendremos que llegar, por una cadena de explicaciones, hasta
el punto en que una inteligencia de nivel muy inferior, pero todavía compleja, se
resuelve en una constelación de ciclos de retroalimentación, parecidos al del
gobernador o al del termostato, debidamente integrados entre sí (por ejemplo que
se pasen señales unos a los otros). El nivel mínimo de mecanismo inteligente será
entonces un arco de retroalimentación; ello no quiere decir que el termostato sea
simple, ni que su inteligencia sea no-extensa; por el contrario, el ciclo de
retroalimentación tiene partes, debidamente relacionadas entre sí en el espacio;
pero ninguna de esas partes es inteligente, en el sentido de nuestra definición. Así
pues, el átomo de inteligencia es el arco de retroalimentación (arco reflejo), y es a
partir de el, por sucesivos niveles de complejización, que se construye toda otra
inteligencia. Como lo apuntábamos al comienzo, si la inteligencia es compleja, debe
admitir grados.
Tal vez una buena manera de ilustrar lo que queremos decir es citar una
interesante teoría sobre la naturaleza de la mente que debemos a Marvin Minsky;
se llama la teoría societal de la mente, y nos dice que cada mente humana es el
resultado de la acción de un comité de mentes de menor poder: sentadas alrededor
de una mesa (metafóricamente hablando), estas mentes conversan entre sí (se
pasan información) y combinando sus respectivas habilidades, que son diferentes,
son capaces de resolver problemas. Ahora bien, estas submentes deben ser, cada
una de ellas, explicadas a su vez de alguna manera; nada impide que las
expliquemos usando la misma teoría. Excepto en el momento en que quienes estén
sentados en estas mesas sean átomos de inteligencia, es decir, ciclos de
autorregulación elementales, como el arco reflejo, que podrán explicarse
mecánicamente de modo muy simple.

INTELIGENCIA ARTIFICIAL

La disciplina de la IA se ha desarrollado ya suficientemente como para ofrecer a la


sociedad humana algunos instrumentos que mejoren su adaptación al medio
ambiente: programas que se conocen con el nombre de sistemas expertos, cuya
teoría y práctica son muy novedosas. Podemos decir, pues, que su ejercicio por
parte de los investigadores tiene como mira en muchos casos la fabricación de
artefactos útiles, programas con habilidad especial para realizar funciones que con
anterioridad sólo podíamos confiar a seres humanos. Llamemos a esa clase de
investigación IA de rendimiento. La disciplina comenzó a existir, y todavía se
practica en gran número de casos, con otro propósito, a saber, el intento de
comprender el funcionamiento de la inteligencia humana; a este tipo de
investigación lo llamamos IA de comprensión. De este segundo tipo fue el trabajo
realizado por los pioneros de la disciplina,A. Newell y H. Simon, en los años
cincuentas y siguientes que culminaron con la publicación de una importante obra
sobre habilidad de solución de problemas en los seres humanos. A la labor de estos
dos investigadores debemos también la caracterización de los métodos de la
inteligencia en dos categorías: débiles y fuertes; y el importante descubrimiento de
que los métodos más generales de la inteligencia son por necesidad métodos
débiles, y que los únicos métodos fuertes son los que aplican conocimientos
específicos de un dominio particular (por lo que necesariamente deben carecer de
generalidad). Este descubrimiento puede expresarse por una ley: a mayor
generalidad, menor fuerza; y a mayor fuerza menor generalidad. La labor de Newell
y Simon, aparte de esa importante fundamentación metodológica, se ha
concentrado en el estudio de los métodos débiles, que como hemos visto son los
únicos dotados de total generalidad (se aplican indiscriminadamente a la solución
de toda clase de problemas). Siendo así que la aplicación de estos métodos débiles
es independiente del conocimiento que tengamos sobre un campo particular de los
problemas humanos, podemos bien decir que lo que los define a todos es la
presencia de la actividad de búsqueda, búsqueda que –eventualmente– podrá
llevarnos a la adquisición de conocimiento.
Los primeros investigadores que se dedicaron a la IA concibieron muchas
esperanzas en relación a la extraordinaria velocidad para la elaboración de la
información que exhiben las computadoras; pensaron que podrían realizar las
búsquedas necesarias para el examen exhaustivo de todas las posibles
combinaciones de elementos para la solución de problemas. Pero fue una esperanza
fallida, pues la llamada explosión combinatoria hace imposible que, aún con la
velocidad de la electricidad, se puedan examinar todas las alternativas posibles en
la solución de un problema que no sea trivial. La consecuencia de ello ha sido que
los únicos programas de IA realmente eficientes han sido no los basados en
métodos débiles, es decir, métodos de búsqueda, sino en métodos de poca
generalidad, basados en conocimientos específicos de un campo. Surge así el
contraste entre la investigación en la que trata de emular al sentido común con su
generalidad y su poca precisión, y la que trata de emular la experticia, con su rango
reducido y gran poder de dar soluciones. Bien podemos decir que los mayores
éxitos de la IA han sido hasta ahora en este último campo: tenemos en existencia
programas expertos en muchas áreas, como la prospección geológica, el
diagnóstico médico, el análisis químico, el análisis matemático, la biología
molecular, el diseño de circuitos, y muchos otros más. En cambio, no tenemos
todavía, ni parece que tendremos en mucho tiempo, programas capaces de
entender el lenguaje ordinario –en su gran riqueza de formas expresivas–, ni
programa capaces de dar consejos en materias varias de la vida común y corriente.

CONCLUSIÓN

El contraste anotado nos lleva a una conclusión que queremos consignar aquí como
nota final de este artículo. Todo parece indicar que las computadoras, debidamente
programados con las técnicas de alto nivel propias de la IA, pueden descollar en el
campo de la pericia, es decir, de la solución de problemas especializados; por su
parte, el intelecto humano parece insustituible en relación con la solución de
problemas de sentido común. Se impone entonces fomentar la asociación de
hombre y máquina en sistemas de cooperación simbiótica y sinergética; hombre y
máquina se necesitan mutuamente para solucionar eficazmente los problemas, y de
la interacción entre ambos resulta una energía intelectual muy superior a la de la
suma de sus partes NOTA 2.
NOTA 1: (Comunicación personal). En cuanto a Minky, él no cree que sea
productivo definir la inteligencia. Le parece que mientras no sepamos cómo trabaja
el cerebro, el intento solo puede crear confusión (comunicación personal). Nota de
1999
NOTA 2: Ver mi artículo sobre la colaboración hombre-máquina (GUTIERREZ 87b),
complementado en GUTIERREZ & ARRIETA 91

Copyright © 1997 Claudio Gutiérrez

http://www.psycologia.com/articulos/ar_claudio014.htm

Panorama de la inteligencia artificial


Los antecedentes culturales que han servido de base. Algunos de los puntos más
importantes son:
Se adopta el criterio de que la inteligencia tiene que ver principalmente con las
acciones racionales. Desde un punto de vista ideal, un agente inteligente es aquel
que emprende la mejor acción posible en una situación dada. Se estudiará el
problema de la construcción de agentes que sean inteligentes en este sentido.
Los filósofos (desde el año 400 A.C.) permitieron el poder pensar en IA, al concebir
a la mente, con maneras diversas, como una máquina que funciona a partir del
conocimiento codificado en un lenguaje interno y al considerar que el pensamiento
servía para determinar cuál era la acción correcta que había que emprender.
Las matemáticas proveyeron las herramientas para manipular las severaciones de
certeza lógica, así como las inciertas, de tipo probabilista. Asi mismo, prepararon el
terreno para el manejo del razonamiento con algoritmos.
Los psicológicos reforzaron la idea de que los humanos y otros animales podían ser
considerados como máquinas para el procesamiento de información. Los lingüistas
demostraron que el uso de un lenguaje ajusta dentro de este modelo.
La ingeniería de cómputo ofreció el dispositivo que permite hacer realidad las
aplicaciones de IA. Los programas de IA por lo general son extensos y no
funcionarían sin los grandes avances en velocidad y memoria aportados por la
industria de cómputo.
La historia de la IA ha sido testigo de ciclos de éxito, injustificado optimismo y la
consecuente desaparición de entusiasmo y apoyos financieros. También ha habido
ciclos caracterizados por la introducción de nuevos y creativos enfoques y de un
sistemático perfeccionamiento de los mejores.
Los avances recientes logrados en la comprensión de las bases teóricas de la
inteligencia han ido aparejados con mejoras hechas en el potencial de los sistemas
reales.
Como en el presente se han ocupado de la manera adecuada de razonar, aunque
en cada caso es diferente lo que se entiende por ello. En el caso de la lógica de
primer orden, el razonamiento adecuado significa la obtención de conclusiones a
partir de premisas; si la base de conocimientos original representa fidedignamente
al mundo, entonces las inferencias también lo representarán fielmente. En el caso
de la probabilidad, manejamos creencias, no el estado del mundo, y en este caso
"razonamiento adecuado" significa contar con creencias que permiten a un agente
actuar de manera racional.
se ha visto una gran variedad de métodos para abordar el problema de la
implantación de los sistemas de razonamiento lógico. En este capítulo se observó
algo que parece ser un consenso: el razonamiento eficiente mediante la
probabilidad es tan reciente que solametne hay un método -las redes de creencia-,
del que existen sólo ligeras variantes. Lo más importante es lo siguiente:
La información sobre la independencia condicional es una forma vital y sólida de
estructurar información sobre un dominio incierto.
Las redes de creencia constituyen una manera natural de representar la
información sobre la independencia condicional. Los vínculos entre los nodos
representan los aspectos cualitativos del dominio; las tablas de probabilidad
condiconal representan los aspectos cuantitativos.
Una red de creencia es una representación completa de la distribución de
probabilidad conjunta correspondiente a un dominio, pero su tamaño es
exponencialmente menor.
La inferencia en las redes de creencia implica el cálculo de distribución de
probabilidad de un conjunto de variables de consulta, a partir de un conjunto de
variables de evidencia.
Las redes de creencia pueden razonar de manera causal, por diagnóstico, de modo
combinado o de forma intercausal.
Ningún otro mecanismo de razonamiento bajo condiciones de incertidumbre puede
manejar todos los modos anteriores.
La complejidad de la inferencia en una red de creencia dependerá de la estructura
de la red. En el caso de los poliárboles (redes con una sola conexión), el tiempo de
cálculo es función lineal del tamaño de la red.
Existen varias técnicas de inferencia que son utilizadas en las redes de creencia
general, y en todas ellas la complejidad es exponencial en el peor de los casos. En
los dominios reales, la estructura local tiende a que las cosas sean más factibles,
aunque hay que poner atención para construir una red manejable en donde haya
más de un centenar de nodos.
También es posible utilizar técnicas de aproximación, incluida la simulación
estocástica, para obtener una estimación de las verdaderas probabilidades haciendo
menos cálculos.
Se propusieron diversos sistemas alternos para razonar en condiciones de
incertidumbre. En todos los sistemas funcionales de verdad hay serios problemas
relacionados con el razonamiento mezclado o intercausal.

http://www.fortunecity.com/skyscraper/romrow/207/se/Panorama.htm

Prefacio.:
El texto que aquí se presenta tiene como finalidad dar una visión ordenada de los
principales tópicos que comprenden el apasionante campo de la Inteligencia
Artificial y una de sus aplicaciones que más éxito han logrado en el campo práctico,
los Sistemas Basados en Conocimiento.
Los diferentes temas han sido desarrollados partiendo de los fundamentos de la
Inteligencia Artificial hacia la discusión de los problemas fundamentales y los
diferentes métodos y algoritmos de solución propios de la denominada Inteligencia
Artificial Débil. Luego de plantear los principales paradigmas de representación del
conocimiento se exponen los aspectos más importantes de los sistemas basados en
conocimiento, incluyendo los denominados sistemas expertos.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/prefacio.htm
El Nivel del Modelo de
Inteligencia
En primer lugar, un proyecto de IA, debe definir lo más exactamente posible, lo que
desea lograr:
• Desarrollar programas que realicen las tareas de la misma forma en que lo
realizan las personas.
• Desarrollar programas que simplemente realicen las tareas de la forma que
parezca más sencilla.
Los programas que se enmarcan en el primer caso, tratan de modelar el
comportamiento humano, para ejecutar las siguientes tareas:
• Probar teorías psicológicas del comportamiento humano.
• Capacitar a los computadores para entender el razonamiento humano.
• Capacitar a los humanos para que comprendan a los computadores.
• Explotar el conocimiento que es posible obtener de la gente.
En el segundo caso, están agrupados los programas de IA de índole más práctica,
que sin ser rigurosos en la modelación del comportamiento humano, tratan de
proporcionar soluciones aceptables.

Criterios de Evaluación en I. A.
Cada campo necesita criterios para evaluar el éxito alcanzado. En general, es muy
difícil determinar si una máquina o un sistema tiene inteligencia o puede pensar. Al
respecto se han sugerido algunas pruebas entre las que se destaca la de Alan
Turing (1912-1954). En 1950 ideó una prueba para reconocer comportamientos
inteligentes, esta prueba dice lo siguiente:
Si la ejecución de un sistema de IA puede convencernos
de que su comportamiento es el que tendría un humano,
entonces el sistema es verdaderamente inteligente.
En una forma más práctica, para saber si un trabajo de investigación en IA ha
tenido éxito, debe hacerse tres preguntas claves:
¿Está definida con claridad la tarea?
¿Existe un procedimiento ya instrumentado que efectúe la tarea? Si no existe, es
que deben haber muchas dificultades escondidas en algún lugar.
¿Existe un conjunto de regularidades o restricciones identificables a partir de las
cuales el procedimiento implantado obtiene su validez? De no ser así, el
procedimiento no pasaría de ser un juguete, tal vez capaz de un desempeño
superficial impresionante en ciertos ejemplos seleccionados con cuidado, pero
incapaz de impresionar con un desempeño profundo y de resolver problemas más
generales.
Para determinar si una aplicación de IA ha tenido éxito, deben plantearse preguntas
adicionales como las siguientes:
• ¿Resuelve la aplicación un problema real?
• ¿Crea la aplicación una nueva oportunidad?
Eventualmente, las respuestas a las preguntas planteadas, deberán ser
complementadas con pruebas típicas de verificación y validación de sistemas:
eficacia en el desempeño, eficiencia operativa, facilidad de uso, flexibilidad,
portabilidad, etc.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_23.htm
Preguntas Fundamentales de
la Inteligencia Artificial
1. ¿Cuales son las suposiciones subyacentes acerca de la inteligencia?
2. ¿Cuáles son las técnicas útiles para la resolución de problemas en IA?
3. ¿A qué nivel de detalle se trata de modelar la inteligencia humana?
4. ¿Cómo se puede saber que se ha tenido éxito en el desarrollo de un sistema
inteligente?
5.
La Hipótesis del Sistema Físico de Símbolos

Un sistema físico de símbolos está formado por un conjunto de entidades básicas


(llamadas símbolos), las cuales son patrones físicos que pueden ocurrir como
componentes de otro tipo de entidad llamada expresión o estructura de símbolos.
Una estructura de símbolos está compuesta de un número de instancias de
símbolos, relacionados en alguna forma física. Además de estas estructuras, el
sistema también contiene una colección de procesos que operan sobre las
expresiones, para producir otras: procesos de creación, modificación, reproducción
y destrucción.
Un sistema físico de símbolos es una máquina que produce, a través del tiempo,
una colección evolutiva de estructuras de símbolos.

Hipótesis: Un sistema físico de símbolos tiene los medios necesarios y


suficientes para actuar en general de forma inteligente.

Importancia De La Hipótesis

Representa una importante teoría acerca de la naturaleza de la inteligencia


humana.
Constituye la base sobre la que se fundamenta la creencia de que es posible
construir programas que pueden realizar tareas inteligentes como las que hacen las
personas.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_2.htm

Importancia de la Inteligencia
Artificial
Conforme el mundo se vuelve más complejo, debemos usar nuestros recursos
materiales y humanos con más eficiencia, y para lograrlo, se necesita la ayuda que
nos ofrecen los computadores.
Existe la falsa impresión de que uno de los objetivo del IA es sustituir a los
trabajadores humanos y ahorrar dinero. Pero en el mundo de los negocios, la
mayoría de personas está más entusiasmada ante las nuevas oportunidades que
ante el abatimiento de costos. Además, la tarea de reemplazar totalmente a un
trabajador humano abarca de lo difícil a lo imposible, ya que no se sabe cómo dotar
a los sistemas de IA de toda esa capacidad de percibir, razonar y actuar que tienen
las personas. Sin embargo, debido a que los humanos y los sistemas inteligentes
tienen habilidades que se complementan, podrían apoyarse y ejecutar acciones
conjuntas:
• En la agricultura, controlar plagas y manejar cultivos en forma más eficiente.
• En las fábricas, realizar montajes peligrosos y actividades tediosas (labores
de inspección y mantenimiento).
• En la medicina, ayudar a los médicos a hacer diagnósticos, supervisar la
condición de los pacientes, administrar tratamientos y preparar estudios
estadísticos.
• En el trabajo doméstico, brindar asesoría acerca de dietas, compras,
supervisión y gestión de consumo energético y seguridad del hogar.
• En las escuelas, apoyar la formación de los estudiantes, especialmente en
aquellas materias consideradas complejas.
• Ayudar a los expertos a resolver difíciles problemas de análisis o a diseñar
nuevos dispositivos.
• Aprender de los ejemplos para explorar bases de datos en busca de
regularidades explotables.
• Proporcionar respuestas a preguntas en lenguaje natural usando datos
estructurados y texto libre.
La IA aplicada es la contraparte de ingeniería de la ciencia cognoscitiva y
complementa sus perspectivas tradicionales. La ciencia cognoscitiva es una mezcla
de psicología, lingüística y filosofía.
La metodología y terminología de la IA está todavía en vías de desarrollo. La IA se
está dividiendo y encontrando otros campos relacionados: lógica, redes neuronales,
programación orientada a objetos, lenguajes formales, robótica, etc. Esto explica
por qué el estudio de IA no está confinado a la matemática, ciencias de la
computación, ingeniería (particularmente la electrónica y la mecánica), o a la
ciencia cognoscitiva, sino que cada una de estas disciplinas es un potencial
contribuyente. La robótica es considerada como un campo interdisciplinario que
combina conceptos y técnicas de IA, con ingeniería óptica, electrónica y mecánica.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_3.html

Representación del Conocimiento


Dado que el conocimiento es importante y primordial para el comportamiento
inteligente, su representación constituye una de las máximas prioridades de la
investigación en IA. El conocimiento puede ser representado como imágenes
mentales en nuestros pensamientos, como palabras habladas o escritas en algún
lenguaje, en forma gráfica o en imágenes, como cadenas de caracteres o
colecciones de señales eléctricas o magnéticas dentro de un computador. En
nuestro estudio de IA, consideraremos las representaciones escritas y sus
correspondientes estructuras de datos utilizadas para su almacenamiento en un
computador. La forma de representación que se escoja dependerá del tipo de
problema a ser resuelto y de los métodos de inferencia disponibles.
Una representación del conocimiento puede ser un esquema o dispositivo utilizado
para capturar los elementos esenciales del dominio de un problema. Una
representación manipulable es aquella que facilita la computación. En
representaciones manipulables, la información es accesible a otras entidades que
usan la representación como parte de una computación.
Debido a la variedad de formas que el conocimiento puede asumir, los problemas
involucrados en el desarrollo de una representación del conocimiento son
complejos, interrelacionados y dependientes del objetivo. El términos generales, se
debe tratar que el conocimiento esté representado de tal forma que:
• Capture generalizaciones.
• Pueda ser comprendido por todas las personas que vayan a proporcionarlo y
procesarlo.
• Pueda ser fácilmente modificado.
• Pueda ser utilizado en diversas situaciones aún cuando no sea totalmente
exacto o completo.
• Pueda ser utilizado para reducir el rango de posibilidades que usualmente
debería considerarse para buscar soluciones.
El conocimiento declarativo puede ser representado con modelos relacionales y
esquemas basados en lógica. Los modelos relacionales pueden representar el
conocimiento en forma de árboles, grafos o redes semánticas. Los esquemas de
representación lógica incluyen el uso de lógica proposicional y lógica de predicados.
Los modelos procedimentales y sus esquemas de representación almacenan
conocimiento en la forma de cómo hacer las cosas. Pueden estar caracterizados por
gramáticas formales, usualmente implantadas por sistemas o lenguajes
procedimentales y sistemas basados en reglas (sistemas de producción).
Las representaciones declarativas son usualmente más expansivas y costosas, en el
sentido que la enumeración puede ser redundante e ineficiente. Sin embargo, la
modificación de las representaciones declarativas es usualmente muy fácil;
simplemente se agrega o se elimina conocimiento. Las representaciones
procedimentales, en cambio, pueden ser más compactas, sacrificando flexibilidad.
Representaciones prácticas pueden incluir elementos tanto declarativos (listado de
hechos conocidos), como procedimentales (un conjunto de reglas para manipular
los hechos).

Manipulación del conocimiento

Existen tres paradigmas que los investigadores han utilizado tradicionalmente para
la resolución de problemas de IA:
Programación Heurística.- Está basado en el modelo de comportamiento
humano y su estilo para resolver problemas complejos. Existen diversos tipos de
programas que incluyen algoritmos heurísticos. Varios de ellos son capaces de
aprender de su experiencia.
Redes Neuronales Artificiales.- Es una representación abstraída del modelo
neuronal del cerebro humano. Las redes están formadas por un gran número de
elementos simples y por sus interconexiones. Una red neuronal artificial puede ser
simulada o ser real. Al elemento procesador de la red, se lo denomina neurona
artificial.
Evolución Artificial.- Su modelo está basado en el proceso genético de evolución
natural, propuesto por Charles Darwin. Se utilizan sistemas simulados en
computador que evolucionan mediante operaciones de reproducción, mutación y
cruce (Algoritmos Genéticos).
Cada paradigma comprende una colección de métodos, configuraciones y técnicas
desarrolladas para manipular el conocimiento. En general, una técnica de IA está
caracterizada por incluir los siguientes componentes:
Procesos de Búsqueda.- Proporciona una forma de resolver problemas para los
cuales no hay un método más directo, así como también se constituye en un marco
de trabajo dentro del cual cualquier técnica directa puede ser incorporada.
Uso del Conocimiento.- Proporciona una forma de resolver problemas explotando
las estructuras de los objetos involucrados.
Abstracción.- Proporciona una forma de separar rasgos importantes y variaciones,
de los tantos que no tienen importancia.
La manipulación del conocimiento involucra además la selección de objetos,
entidades y rasgos que son claves para las representaciones. Al nivel más bajo de
representación del conocimiento, estas entidades pueden consistir de simples datos
de entrada, por ejemplo: grabaciones cuantizadas y digitalizadas de audio, datos de
una imagen, valores captados por un sensor, información de interruptores o hechos
elementales. Estos bloques constructivos de la representación se los denomina
comúnmente primitivas. La representación escogida para las primitivas, puede
determinar las capacidades del sistema, el éxito, la corrección y sus posibilidades
de expansión.
En lo sucesivo, este curso se centrará en el estudio de las aplicaciones de la
programación heurística, para el desarrollo de sistemas de IA.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_22.html

Problemas y Técnicas en
Inteligencia Artificial
Desde el punto de vista de ingeniería, la mayor parte del trabajo requerido para
construir sistemas de IA, está basado en el desarrollo de adecuadas
representaciones de conocimiento y sus correspondientes estrategias de
manipulación. No se puede manipular conocimiento a menos que esté
adecuadamente representado. En consecuencia, las siguientes tres preguntas
claves pueden guiarnos en el estudio de la IA.

• ¿Qué es el conocimiento?
• ¿Cómo se puede representar el conocimiento?
• ¿Cómo se podría manipular el conocimiento?

A continuación, se dan respuestas parciales a estas preguntas planteadas. En los


capítulos posteriores se presenta un estudio más formal y detallado acerca del
conocimiento, su representación y manipulación.

Conocimiento

Puede ser definido como el conjunto de hechos y principios acumulados por la


humanidad, o el acto, hecho o estado de conocer. Es la familiaridad con el lenguaje,
conceptos, procedimientos, reglas, ideas, abstracciones, lugares, costumbres y
asociaciones, unida a la habilidad de utilizar estas nociones en forma efectiva para
modelar diferentes aspectos del universo que nos rodea.

Los conceptos de conocimiento e inteligencia están íntimamente ligados. La


inteligencia requiere de la posesión y acceso al conocimiento. Conocimiento no
debe ser confundido con datos o información. El conocimiento incluye y requiere del
uso de datos e información. Además, combina relaciones, dependencias, y la noción
del saber con datos e información.
A veces es también útil o más aun necesario distinguir entre conocimiento y otros
términos como creencia e hipótesis.

Esencialmente, se define como creencia a toda expresión que tiene significado,


que es coherente y puede ser representada. En consecuencia una creencia puede
ser verdadera o falsa. Hipótesis se define como una creencia justificada que no se
conoce sea verdadera. Una hipótesis es una creencia que está respaldada por cierta
evidencia, pero todavía puede resultar falsa. Finalmente, se puede también decir
que conocimiento es una creencia justificada como verdadera.

Otros términos relacionados con el conocimiento y que son ocasionalmente


empleados son epistemología y metaconocimiento. Epistemología es el estudio de
la naturaleza del conocimiento, mientras que metaconocimiento es conocimiento
acerca del conocimiento, esto es, conocimiento acerca de lo que se conoce.
El conocimiento puede ser de tipo procedimental, declarativo o heurístico.
Conocimiento procedimental es aquel conocimiento compilado que se refiere a
la forma de realizar una cierta tarea (el saber como hacerlo). Por ejemplo, los
pasos necesarios para resolver una ecuación algebraica son expresados como
conocimiento procedimental.

Por otro lado, el conocimiento declarativo es conocimiento pasivo, expresado


como sentencias acerca de los hechos del mundo que nos rodea (el saber que
hacer). La información personal en una base de datos es un típico ejemplo de
conocimiento declarativo. Tales tipos de datos son piezas explícitas de conocimiento
independiente.

El conocimiento heurístico es un tipo especial de conocimiento usado por los


humanos para resolver problemas complejos. El adjetivo heurístico significa medio
para descubrir. Está relacionado con la palabra griega heuriskein que significa
descubrir, encontrar. Se entiende por heurístico a un criterio, estrategia, método o
truco utilizado para simplificar la solución de problemas. El conocimiento heurístico
usualmente se lo adquiere a través de mucha experiencia.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_21.html

Definiciones de Inteligencia
Artificial
Una buena definición de IA es algo elusiva y controversial, fundamentalmente
porque la inteligencia humana no está completamente entendida. Cada libro de
texto en IA propone una definición que enfatiza las diferentes perspectivas que,
cada autor cree, encierra el campo. A continuación se transcriben algunas de ellas:

La IA es una rama de la ciencia de computación que comprende el


estudio y creación de sistemas computarizados que manifiestan cierta
forma de inteligencia: sistemas que aprenden nuevos conceptos y
tareas, sistemas que pueden razonar y derivar conclusiones útiles
acerca del mundo que nos rodea, sistemas que pueden comprender
un lenguaje natural o percibir y comprender una escena visual, y
sistemas que realizan otro tipo de actividades que requieren de
inteligencia humana.

La IA es una ciencia que trata de la comprensión de la inteligencia y


del diseño de máquinas inteligentes, es decir, el estudio y la
simulación de las actividades intelectuales del hombre (manipulación,
razonamiento, percepción, aprendizaje, creación).

La IA es el estudio de las computaciones que permiten percibir,


razonar y actuar.

La IA es un campo de estudio que busca explicar y emular el


comportamiento inteligente en términos de procesos
computacionales.
La IA estudia las representaciones y procedimientos que
automáticamente resuelven problemas usualmente resueltos por
humanos.

A pesar de la diversidad de conceptos propuestos para la IA, en general todos


coinciden en que la IA trata de alcanzar inteligencia a través de la computación.
Toda computación, requiere de una representación de cierta entidad y de un
proceso para su manipulación.
Desde el punto de vista de los objetivos, la IA puede considerarse en parte como
ingeniería y en parte como ciencia:
Como ingeniería, el objetivo de la IA es resolver problemas reales, actuando como
un conjunto de ideas acerca de cómo representar y utilizar el conocimiento, y de
cómo desarrollar sistemas informáticos.
Como ciencia, el objetivo de la IA es buscar la explicación de diversas clases de
inteligencia, a través de la representación del conocimiento y de la aplicación que
se da a éste en los sistemas informáticos desarrollados.
Para usar la IA se requiere una comprensión básica de la forma en que se puede
representar el conocimiento y de los métodos que pueden utilizar o manipular ese
conocimiento.

http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_1.html

Fundamentos de la Inteligencia Artificial


En este capítulo se presentan los fundamentos de la Inteligencia Artificial (IA),
conceptos relacionados, problemas, modelos, importancia, relaciones y criterios
para evaluar sistemas de IA.
En primer lugar, revisemos algunas definiciones generales de inteligencia, antes de
intentar definir inteligencia artificial. Inteligencia es la aptitud de crear relaciones.
Esta creación puede darse de manera puramente sensorial, como en la inteligencia
animal; también puede darse de manera intelectual, como en el ser humano, que
pone en juego el lenguaje y los conceptos. También se la puede conceptuar como la
habilidad para adquirir, comprender y aplicar conocimiento; o como la aptitud para
recordar, pensar y razonar.
La IA es una nueva generación de tecnología informática, caracterizada no sólo por
su arquitectura (hardware), sino también por sus capacidades. El énfasis de
generaciones previas fue en las computaciones numéricas para aplicaciones
científicas o de negocios. La nueva generación de tecnología informática incluye
además la manipulación simbólica, con el objetivo de emular el comportamiento
inteligente; y, la computación en paralelo, para tratar de conseguir resultados
prácticamente en tiempo real. La capacidad predominante de la nueva generación,
también conocida como la Quinta Generación, es la habilidad de emular (y tal vez
en algunos casos superar) ciertas funciones inteligentes del ser humano. Por
ejemplo:

Aprendizaje:
• Captación automática de conocimientos.
Razonamiento:
• Sistemas basados en conocimientos.
• Bases de datos inteligentes.
• Prueba de teoremas y juegos.
Percepción:
• Comprensión de lenguaje natural.
• Interpretación de escenas visuales (Visión por computadora).
Locomoción y Manipulación:
• Realizar procesos mecánicos y tareas manuales (Robótica).
Creación:
• Generación, verificación, depuración y optimización automática de
programas.
Algunas de las tareas que estos sistemas realizan en el campo de la IA son:
Tareas generales
• Percepción: Visión, Fonemas.
• Lenguaje Natural: Comprensión, generación y traducción.
• Razonamiento de sentido común.
• Control de robots.
Tareas formales
• Juegos: Ajedrez, Backgammon, Damas.
• Matemáticas: Geometría, Lógica, Cálculo Integral.
Tareas expertas
• Ingeniería: Diseño, Localización de fallas, Planeamiento.
• Análisis Científico.
• Diagnóstico Médico.
• Análisis Financiero.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_i.ht
ml

Aspectos de la Inteligencia Artificial


.

Durante muchos años las publicaciones para profesionales y para adicionados han
puesto cada vez mas énfasis en temas como la quinta generación, la inteligencia
artificial y los sistemas expertos y en pocos conocidos lenguajes como LIPS y
PROLOG. La IA es una de las ramas de la informática que ha sido capaz de cumplir
con muchas de las esperanzas y las predicciones iniciales.
La posibilidad de construir una maquina que pueda rivalizar o superar la capacidad
de razonamiento del cerebro humano ha atraído durante muchos años la
imaginación del hombre.
No existe una definición para la IA que tenga aun aceptación general lo cual no es
de extrañar ya que tampoco ha existido nunca una definición universalmente
aceptada de la inteligencia humana. La mayor parte de la controversia actual
acerca de lo que constituye y de lo que no constituye una evidencia de (inteligencia
artificial) en una maquina podría compararse con la preocupación de los filósofos
medievales acerca del numero exacto de ángeles que ocuparían la cabeza de un
alfiler.
Lo que si podemos afirmar es que ciertas técnicas y sistemas en el campo de la
informática son reconocidos como facetas de la IA. En términos muy generales,
dichas técnicas consisten en lograr que un computadora haga algo que si lo
realizase un ser humano se considerara como inteligente. Debemos destacar los
puros calculo numéricos y la ejecución de las tareas rutinarias y considerar solo las
acciones que parezcan conllevar algún aspecto del poder del razonamiento humano
tales como la capacidad de abstracción, generalización, inventiva y por supuesto la
capacidad de recordar.
Sin embargo, cuando la computación empezó a surgir como una ciencia, se
empezaron a dar cuenta de que los robots podía realizar tareas mucho más
complejas de lo que ellos imaginaban; se interesaron en el concepto del
"razonamiento Humano"; Comenzó por desarrollar algoritmos capaces de resolver
problemas específicos, se interesó en aplicar la Lógica Matemática en la resolución
de dichos problemas.
De esta manera podemos ver que el entendimiento de algún lenguaje natural,
reconocimiento de imágenes, encontrar la mejor manera de resolver un problema
de matemáticas, encontrar la ruta óptima para llegar a una objetivo específico,
etc., son parte del razonamiento humano, y que hasta ahora el hombre ha deseado
poder imitarla desarrollando la Inteligencia Artificial.
Se requiere que un robot "piense" y tome una decisión entre dos o mas opciones,
es entonces cuando principalmente se aplica a los ordenadores, ya sean PC’s ,
servidores de red o terminales de red, ya que su principal aplicación es desarrollar
programas computacionales que resuelvan problemas que implican la interacción
entre la máquina y el hombre, es decir, las máquinas "aprenderán" de los hombres,
para realizar mejor su labor.

http://www5.gratisweb.com/comarsc/inar2.htm

El Alcance de la Inteligencia Artificial

Como anteriormente se indico , no es posible dar una definición de universalmente


aceptable de la IA, pero lo que se puede hacer es es dar una lista de los procesos
que generalmente pueden ser llamados IA si son programados en un computadora.
La lista no es exhaustiva, pero cubre las áreas principales.

SOLUCION DE PROBLEMA EN GENERAL. Esto es no simplemente programar una


maquina para resolver problemas específicos tales como hallar las soluciones de
una ecuación de segundo grado, sino crear un sistema capaz de hallar métodos
para solucionar problemas.

PERCEPCION. Las maquinas serán capaces de reaccionar a su entorno e


influenciarlo mediante sensores y dispositivos de interacción como con el exterior.
La visión ya se ha llevado a cabo en una escala limitada mediante aparatos de
televisión y dispositivos para la percepción de imágenes sintetizadores que
permiten al ordenador comunicarse mediante el lenguaje hablado en la salida y no
escrito como se ha hecho hasta ahora, con el uso de pantallas o impresoras.
Algunos de los progresos conseguidos con el desarrollo de circuitos integrados
permitirán al computados aceptar ordenes y datos especializados, también
mediante la utilización del lenguaje hablado.

COMPRENSION DEL LENGUAJE NATURAL. La necesidad de comunicarse con los


computadoras mediante un lenguaje ensamblador o en uno de los lenguajes
especializados de alto nivel ha impedido a los no especialistas hacer un uso que no
sea superficial de los ordenadores.

APRENDIZAJE, DEMOSTRACION DE TEOREMAS, JUEGOS. Todos estos campos


requieren cierta capacidad de mejorar la experiencia. La busqueda de algoritmo que
permitan incorporar esta capacidad a un sistema a un sistema es una de las
características básicas de la investigación en IA.

SISTEMAS EXPERTOS. Para algunas persona los terminos IA y sistemas expertos


son sinonimos. Muchos de los sistemas expertos existentes actualmente consisten
en grandes bases de conocimientos, creadas para almacenar la información de que
se dispone expertos humanos en varios campos y a las que se aplica una serie de
reglas de manipulación expresadas en en lenguajes especificos . La diagnosis
medica, la ingenieria quimica, la exploración geologica y el diseño de computadoras
han proporcionado material para el diseño de sisteams expertos de gran éxito.
Con el nacimiento de la Revolución Industrial, muchas fábricas tuvieron gran
aceptación por la automatización de procesos repetitivos en la línea de ensamblaje.
La automatización consiste, principalmente, en diseñar sistemas capaces de
ejecutar tareas repetitivas hechas por los hombres, y capaces de controlar
operaciones sin la ayuda de un operador humano. El término automatización
también se utiliza para describir a los sistemas programables que pueden operar
independientemente del control humano. La mayoría de las industrias has sido
automatizadas o utilizan tecnología para automatizar algunas labores; en la
industria de la telefonía, marcación, transmisión y facturación esta completamente
automatizados.
Pero no todas las industrias requieren el mismo grado de automatización. La
agricultura es una industria difícil de automatizar, y con esto se ha vuelto más
mecanizada, esencialmente en el procesamiento y empaque de comida. De manera
similar, los doctores pueden dar consulta asistiéndose en una computadora, pero
finalmente el doctor, y no la computadora, termina por dar el diagnóstico final al
paciente.
Los robots comenzaron a aparecer en este proceso de automatización industrial
hasta la aparición de las computadoras en los 40’s. Estos robots computarizados,
están equipados con pequeños microprocesadores capaces de procesar la
información que le proveen los sensores externos y así es como el robot puede
tomar cambiar o mantener una operación en ejecución, a esto se le llama
retroalimentación, y forma parte de la Cibernética. La retroalimentación es esencial
en cualquier mecanismo de control automático, ya que ayuda a controlar los
factores externos que le afecten en la correcta ejecución de sus operaciones
normales.

LENGUAJE DE LA IA. Los lenguajes de programación tradicionales no se han


adaptado bien a las aplicaciones en IA. Se han usado ampliamente lenguajes como
Prolog, basados en la lógica y Lips que tiene una superior capacidad en el
procesamiento de listas, pero hay muchos mas lenguajes diseñados especialmente
para algunas aplicaciones concretas.

HARDWERE PARA LA IA. El diseño tradicional de hardwere no ha conseguido


alcanzar, en gran medida el fin propuesto por la IA. Las tecnicas de IA requieren
acceso rápido a bancos de memoria, enormes según los estandares tradicionales y,
por tanto, las velocidades de proceso son demasiado lentas para las aplicaciones
mas exigentes. La antigua idea de solucionar un problema paso a paso mediante la
ejecución de una secuencia de instrucciones esta cediendo al paso a la idea del
procesamiento en paralelo, en le cual un conjunto de procesadores trabajan
simultaneamente en la diferentes partes del problema.
Según otros rumbos tomados se propone la inclusión de compiladores en hardwere
mas que en software, y la obtención de un microcodigo para procesadores en un
lenguaje lógico como el Prolog .

ROBOTICA. La ciencia de la robotica implica diferentes tecnicas de IA. La idea de


un robot "listo" con la capacidad de aprender por experiencia es el tema central de
teorías e investigaciones en IA. El robot debe ser capaz de comunicarse en lenguaje
natural y debe poder realizar tareas que requieran qe el equivalente a la iniciativa y
la originalidad, esto implica que el robot debe llegar a realizar , tra un periodo de
aprendizaje cosas para las cuales no estaba inicialmente programado, a diferencia
de los robots que se utilizan actualmente en la aplicación industrial, los cuales no
son más que meros automatas.
La idea global en la inteligencia artificial estuvo desacreditada durante varios años
debido parcialmente , al excesivo optimismo por parte de la primera teoria pero ,
mayormente causado por la exageración y el sensacionalismo de algunos de sus
divulgadores.
Los primeros robots creados en toda la historia de la humanidad, no tenían más
que un solo fin: entretener a sus dueños. Estos inventores se interesaban
solamente en conceder los deseos de entretener a quien les pedía construir el
robot. Sin embargo, estos inventores se comenzaron a dar cuenta de que los robots
podía imitar movimientos humanos o de alguna criatura viva. Estos movimientos
pudieron ser mecanizados, y de esta manera, se podía automatizar y mecanizar
algunas de las labores más sencillas de aquellos tiempos.
El origen del desarrollo de la robótica, se basa en el empeño por automatizar la
mayoría de las operaciones en una fábrica; esto se remonta al siglo XVII en la
industria textil, donde se diseñaron telares que se controlaban con tarjetas
perforadas.

CIBERNETICA. La cibernética es una ciencia interdisciplinaria, tratando con


sistemas de comunicación y control sobre organismos vivos, máquinas u
organizaciones. El término es una derivación del vocablo griego kybernetes que
significa gobernador o piloto, y fué aplicado por primera vez en 1948 a la teoría del
control de mecanismos por el matemático americano Norbet Wiener.

En el cuerpo humano, el cerebro y el sistema nervioso funcionan para coordinar la


información, la cual es utilizada para determinar el futuro curso de una acción;
controlar los mecanismos para la autocorrección en máquinas que sirven con un
propósito similar. Este principio es conocido como retroalimentación, el cual es
fundamental en el concepto de automatización.
La cibernética también se aplica al estudio de la psicología, servomecanismo,
economía, neuropsicología, ingeniería en sistemas y al estudio de sistemas sociales,
el término cibernética no es muy utilizado para describir por separado a un campo
de estudio, y muchas de las investigaciones en el campo ahora se centran en el
estudio y diseño de redes neuronales artificiales.

http://www5.gratisweb.com/comarsc/inar3.htm

_____________MÁQUINAS COMO HOMBRES_


http://www.oni.escuelas.edu.ar/olimpi2000/bs-as/quienes-somos/infor.htm

Está claro que un ordenador electrónico es capaz de realizar sumas, restas y otras muchas
operaciones mecanizables y reiterativas (algorítmicas) con una rapidez mucho mayor que la del
hombre mismo. Pero esto no significa que sea especialmente inteligente, pues hay que
reconocer que ninguna de estas operaciones repetitivas precisa del ejercicio de capacidades
intelectivas superiores, ya que es posible construir maquinas capaces de realizarlas
compuestas únicamente por ruedas dentadas y dispositivos similares.
En este caso, ¿cuándo podrá hablarse con estricta justicia de inteligencia artificial?. La
contestación a esta pregunta no es nada fácil. Uno de los pioneros de la investigación teórica
en el campo de los ordenadores, el matemático británico Alan Mathison Turing (1912-1954)
propuso en 1947 un criterio (llamado en su honor "la prueba de Turing") que permitiría decidir
cuando una máquina podría considerarse por fin inteligente.
La prueba de Turing nos presenta la siguiente situación: dos contertulios de un investigador son
un ser humano y un ordenador que trata de pasar por un humano. El investigador y sus
interlocutores se encuentran en salas separadas y dialogan mediante terminales de
computadora. ¿Podrá la maquina engañarle? Según Turing, podemos hablar de inteligencia
artificial, y se podrá decir que la maquina piensa, cuando el interrogador sea capaz de distinguir
cual es la estación terminal conectada a un ser humano y cual es la conectada a una
computadora después de un numero razonable de preguntas y respuestas.
Hasta ahora, a pesar de los años transcurridos desde que Turing formuló su famosa prueba,
ninguna máquina ha sido capaz ni siquiera de aproximarse a cumplirla.
No es difícil descubrir, tras un breve dialogo que estamos hablando con un ser humano.
Estrictamente, por tanto, no se puede decir que la inteligencia artificial se halla conseguido
nunca, pero si que ha habido diversos intentos de lograrla que pueden catalogarse bajo ese
nombre si aplicamos al termino una definición más amplia y menos restrictiva.

CEREBRO VS. MICROPROCESADOR

Los microprocesadores son circuitos electrónicos integrados encargados del procesamiento de


la información en las computadoras. Las arquitecturas más comunes incluyen:
• una unidad aritmética y lógica (ALU) encargada de realizar las operaciones;
• una unidad de control, cuya función es extraer las instrucciones del programa
almacenado en memoria, e indicar a los demás dispositivos de la computadora la tarea
que deben realizar;
• y la memoria.
La computadora funciona como una unidad de procesamiento, recibiendo los datos a procesar
mediante los dispositivos de entrada, y entregando el producto elaborado mediante los
dispositivos de salida. Esta actividad la desempeñan con notable precisión y velocidad, y en
esto supera seguramente a nuestro cerebro.
A diferencia del chip de silicio, nuestro cerebro ha evolucionado durante millones de años. Al
intentar simularlo en las computadoras se ha revelado lo difícil que es realizar algunas
operaciones que aquél realiza con facilidad. Las operaciones referidas son tareas que
realizamos cotidianamente y sin esfuerzo pero requieren ciertas característica que las
computadoras no poseen.

Velocidad de transmisión

Cuando comparamos el funcionamiento del cerebro y el de la computadora, la primera gran


diferencia que hallamos es la de la manera de que en ambos se transmite la información.
El ordenador maneja datos codificados en códigos binarios, que se representan físicamente
mediante dos niveles distintos de energía eléctrica. Esto hace que la velocidad de propagación
de los mismos sea muy alta y se mejore con cada nuevo diseño de microporcesador.
Por el contrario, la transmisión de la información en el sistema nervioso, se realiza mediante un
proceso electroquímico en la membrana de la neurona y mediante la sinapsis, que es el
proceso químico con el cual se comunica una neurona con otra. Ambos procesos son mucho
más lentos que el paso de energía por los circuitos del ordenador.
¿Cómo se explica entonces que el cerebro sea más eficiente en resolver algunas tareas, si
emplea tiempos de transmisión mayores?

Proceso serie y paralelo

La paradoja de cómo se consiguen soluciones rápidas en el cerebro, empleando un circuito que


opera lento, se explica mediante una técnica denominada proceso paralelo. Éste consiste en
descomponer una sola tarea compleja en varias subtareas que pueden ser resueltas
simultáneamente por distintos grupos de neuronas, en lugar de sucesivamente. El resultado es
que el tiempo total del proceso se reduce.
El proceso paralelo es posible por la extraordinaria ramificación de las conexiones entre las
neuronas, cosa que es técnicamente imposible de lograr en los ordenadores.
La ramificación es tan extensiva que, cada neurona de la corteza, pueden realizarse contactos
con al memos 3.000 sinapsis y cada milímetro cuadrado de corteza cubre más de 100.000
células nerviosas.
La actividad de cada sinapsis produce sólo un pequeño cambio en el potencial de la célula a la
que se conecta, y debido a que cada célula tiene un umbral que debe ser alcanzado antes de
que se excite, hay que sumar la actividad unida de cientos de sinapsis para que la célula
conduzca una señal eléctrica a través de su axón.
El alto grado de excitación convergente que se necesita para activar una célula, hace que el
proceso sea muy diferente del de los ordenadores con los cuales intentamos compararlo. A
diferencia del ordenador, que está organizado de forma fuertemente jerárquica, la corteza
cerebral parece operar como una sociedad democrática. Sólo cuando un número suficiente de
células considera que un hecho ha tenido lugar, actúan de manera conjunta para producir un
impulso nervioso en la célula en la cual convergen.
Actualmente se desarrollan supercomputadoras que emplean proceso paralelo de la
información, emulando al cerebro.

KASPAROV VS. DEEP BLUE

Uno de los primeros programas de ajedrez fue el llamado Hitech, creado por Hans Breliner, el
que domino el campo durante los años ochenta y alcanzo una clasificación de 2400 puntos en
el sistema de clasificación internacional, pero fue a su vez superado por Deep Thought,
desarrollado por un grupo de estudiantes de la Universidad Carnegie-Mellon que en 1990
rebasa los 2600 puntos, lo que le convierte en el primer ordenador, que alcanza la categoría de
gran maestro internacional de ajedrez. Como punto de comparación, un campeón mundial
suele estar situado por encima de los 2700 puntos.
En mayo de 1997, la computadora Deep Blue superó al campeón mundial del ajedrez Garry
Kasparov.
Deep Blue es una supercomputadora que puede analizar 200 millones de jugadas por segundo,
pesa 600 kilos y tiene 64 microprocesadores. En una posición determinada, Deep Blue
visualiza todas las estrategias posibles y las posiciones que se van derivando hasta un alcance
de 24 movidas.
El debate entre Kasparov y Deep Blue es una episodio más en el tradicional enfrentamiento de
dos formas distintas de pensamiento.

Pensamiento heurístico vs. pensamiento algorítmico

Tradicionalmente se reconoce en las computadoras un pensamiento algorítmico. Éste consiste


en la resolución de problemas siguiendo un estricto programa, en el cual se han considerado
todas las posibles eventualidades que se puedan presentar. Así, la solución a la que se arriba
es óptima.
En cambio en el hombre se da otro tipo de pensamiento llamado heurístico. La heurística
consiste en arribar a la solución de un problema siguiendo reglas dictadas por la experiencia,
sin necesidad de analizar todos los posibles caminos de solución. La solución obtenida no
siempre es la mejor, pero se halla más rápidamente.
En contraste con esta diferencia cualitativa entre ambas formas de pensamiento, otros
científicos opinan que habría sólo una diferencia de grado entre el pensamiento humano y el
proceso computacional. Sugieren que no somos conscientes de todos nuestros pensamientos
y, por lo tanto, lo que interpretamos como solución heurística podría deberse a un proceso
algorítmico subconsciente.
Pero esto no resuelve la cuestión de quién es más que quién: el ajedrez es un juego
estrictamente lógico y en eso las computadoras pueden superarnos. No sólo por la velocidad
de cálculo sino porque carecen de perturbaciones emocionales.
Sin embargo, no puede afirmarse que la inteligencia artificial haya logrado superar a la
humana, porque la inteligencia humana es mucho más que lógica, y es en éste sentido que
puede decirse que "el ajedrez no es un juego inteligente".

DESARROLLO HISTÓRICO DE LA I. A.

El termino "inteligencia artificial" fue propuesto por primera vez por John McCarthy, con ocasión
de una conferencia internacional de informática celebrada en el Dartmouth College de Hanover
(E.E.U.U) en 1956. Inicialmente se aplicó el nombre a todas aquellas ramas de informática que
parecían relacionada con la emulación de las actividades mentales superiores del hombre
¿cuáles serán estas?.
Esencialmente, las siguientes: demostración automática de teoremas matemáticas;
comprensión por las maquinas del lenguaje humano hablado y escrito; programas capaces de
aprender de su propia experiencia; y los que pueden jugar con decoro a los llamados "juegos
inteligentes": las damas y el ajedrez.

Juegos inteligentes

Por aquellas fechas y a pesar que los ordenadores electrónicos tenían a sus espaldas una
historia muy corta y aun se encontraban en la primera generación, se habían conseguido ya
algunos logros notables en estos campos. En 1956 el norteamericano Herbert Gelernter, del
laboratorio de IBM en Poughkeepsee (Nueva York), había construido uno de los primeros
casos auténticos de inteligencia artificial: un programa que podía resolver teoremas sencillos de
geometría plana. En ese mismo año Arthur Samuel construyo otro capaz de jugar a las damas,
que además guardaba información sobre las partidas jugadas y la utilizaba para evitar cometer
los mismos errores en partidas posteriores. Hasta cierto punto, por lo tanto, se podía decir que
el programa "aprendía". Y lo hizo tan bien que, en unos pocos años, jugaba razonablemente
bien, ganaba sistemáticamente a su propio autor y desempeñaba un papel decoroso en los
campeonatos oficiales.
Las damas fue el primer juego inteligente abordado por los programadores porque es
relativamente sencillo, comparado con el ajedrez (solo existen dos tipos de piezas y el numero
de casillas aprovechables en un tablero de ocho por ocho es igual a treinta y dos). Desde el
primer momento, sin embargo, se comprendió que el ajedrez iba a ser un hueso más duro de
roer: son seis tipos diferentes de piezas, los movimientos son mucho más complejos y hay
sesenta y cuatro casillas accesibles, lo que multiplica considerablemente el numero de jugadas
posibles en cada momento y, por ende, la complicación del juego. Sin embargo, más o menos
por la fecha del congreso internacional en que se bautizó la inteligencia artificial, ya se había
dado el primer paso para vencer todas las dificultades: Alex Bernstein, de la Divison de
Ciencias Aplicadas de IBM, había sido el primero en construir un programa capaz de jugar al
ajedrez al nivel de un principiante, cuya aparición fue profusamente aireada por la prensa
especializada.
Como consecuencia de estos avances, aparentemente arrolladores, los participantes en el
congreso formularon predicciones extraordinariamente optimistas. "En diez años – decían -
tendremos programas capaces de ganar sistemáticamente al campeón del mundo del ajedrez.
Podremos hacer, gracias a los ordenadores, traducciones automáticas perfectas, entre dos
lenguas humanas cuales quiera. Y eso será sólo el principio: los avances se aceleraran
progresivamente y pronto podrá resolverse de forma satisfactoria el viejo sueño de la ciencia-
ficción: la construcción de hombres artificiales, robots humanoides, o como se les quiera
llamar."
Pero las cosas no salieron como estos optimistas preveían. En 1968, tras diez años de
esfuerzos constantes, los programas que jugaban al ajedrez seguían al nivel de un principianta
y las traducciones automáticas entre lenguas humanas eran dignas de risa.

Traducción automática

Hay una famosa anécdota, posiblemente apócrifa, que cuenta como se construyeron por
aquella época dos programas traductores, el primero de los cuales vertía los textos del ingles al
ruso, mientras el segundo realizaba la traducción opuesta. Para probarlos, se proporciono al
primero el texto bíblico siguiente: "The espirit is ready, but the flesh is weak" ("el espíritu esta
pronto, pero la carne es débil"). La versión rusa obtenida volvió a verterse al ingles, gracias al
segundo programa traductor, obteniéndose al final de este viaje en dos direcciones el texto
siguiente: "The vodka is good, but the meat is spoiled" ("el vodka es bueno, pero la carne esta
estropeada"). Naturalmente, todo gira alrededor del doble sentido de algunas palabras: spirit,
que en ingles significa a la vez "espíritu" y "bebida alcohólica", flesh, que posee los dos
sentidos de su equivalente español "carne" (alimento y cuerpo), weak, que puede significar
débil de fuerzas o débil de calidad. Como se aprecia fácilmente, cualquier parecido de la
traducción con el original era pura coincidencia. El ejemplo, sin embargo, deja muy claras las
dificultades reales del problema, que proceden de que las lenguas humanas son intrínseca y
esencialmente ambiguas, y esto hace muy difícil interpretarlas correctamente sin un
conocimiento previo muy amplio sobre el mundo, conocimiento del que los ordenadores
carecen.
La consecuencia de este fracaso en las predicciones de los avances de la inteligencia artificial
fue la práctica detención de las investigaciones en todos estos campos durante casi una
década. La disciplina fue abandonada por los principales centros de investigación informática y
quedó relegada a unos pocos departamentos universitarios más o menos perdidos. Sin
embargo, sin demasiada publicidad, comenzaron a surgir nuevas investigaciones que sólo
mucho más tarde pasaron a considerarse parcelas propias de la inteligencia artificial. Estos
campos nuevos fueron, esencialmente, dos: la visión de las máquinas y los sistemas expertos.

Redes neuronales

Paralelamente a todo esto, otra línea de investigación, que acabó por considerarse también
parte de la inteligencia artificial, y que también hundía sus raíces en los años cincuenta, había
pasado por vicisitudes muy semejantes a los campos clásicos. Su objetivo era la construcción
de máquinas distintas de los ordenadores electrónicos que deberían alcanzar comportamientos
más o menos inteligentes por métodos más semejantes a los que utilizamos los seres
humanos. Y puesto que nuestro cerebro está formado por neuronas, se intento construir una
neurona electrónica que simulara el comportamiento de las células nerviosas. Se creía que
estas neuronas artificiales, conectadas entre si, podrían llegar a pensar.
Las maquinas en cuestión, llamadas perceptrones, estaban constituidas por dos capas de
neuronas simuladas, cada una de las cuales se conectaba con las de su misma capa y las de
la siguiente, pero no con las de la anterior. El problema era que la construcción real de los
perceptrones presentaba dificultades, pues cada neurona requería un circuito complejo y el
numero de neuronas necesario era muy grande.
En consecuencia, se recurrió a simular estos dispositivos en ordenadores electrónicos
ordinarios, lo que resultaba mucho más barato y, por lo tanto, factible, pero también
considerablemente más lento. Se creía por entonces que a medida que los ordenadores fueran
más rápidos, se podrían simular circuitos de perceptrones más complicados, que tal vez
acabaran por pensar.
Uno de los primeros problemas que se trato de resolver con perceptrones fue la construcción
de una retina artificial que actuara frente a la luz de una forma parecida a la de nuestros ojos,
que realizan un procesamiento notable de la información visual antes de enviarla al cerebro.
Desgraciadamente, en 1965 los norteamericanos Marvin Minsky y Seimour Papert demostraron
teóricamente que los circuitos con perceptrones jamas serán capaces de resolver ciertos
problemas muy sencillos. Como consecuencia de esto, la investigación en esta rama
desapareció casi por completo durante muchos años.

Sistemas expertos

A finales de los años setenta, la inteligencia artificial revivió, saliendo del marasmo en que
había caído. La causa remota fue el avance logrado en esos años por los nuevos sistemas
expertos, el primero de los cuales (Dendral) fue diseñado en 1965 por los norteamericanos
Edward A. Feigenbaum y Joshua Lederberg, que utilizaron un camino diferente y original. Su
objetivo era construir un programa que fuera capaz de obtener la formula de ciertos
compuestos orgánicos, realizando deducciones inteligentes a partir de los datos del análisis
químico. Después de bastantes años de trabajo, el programa Dendral llego a convertirse en un
verdadero sistema experto en la estructura de las moléculas químicas.

El proyecto quinta generación

Pero la causa inmediata del resurgir de la inteligencia artificial fue el lanzamiento, por el
gobierno de Japón, del proyecto de la quinta generación de ordenadores, que comenzó
oficialmente en 1982, y que en diez años, al decir de sus diseñadores, debía obtener maquinas
totalmente nuevas, que utilizarán las técnicas de la inteligencia artificial y de los sistemas
expertos para conseguir un comportamiento inteligente y serian capaces de comunicarse con
los seres humanos en su propia lengua, realizando además traducciones prácticamente
perfectas entre idiomas tan diferentes como el ingles y el japonés.
Como se observara, el proyecto de la quinta generación era en el fondo una repetición de las
previsiones de 1958, con las que coincidía incluso en el plazo previsto para su cumplimiento.
Como en aquel caso, también estas previsiones fracasaron, aunque no totalmente, pues el
proyecto japonés asusto a los gobiernos norteamericano y europeos, que impulsaron proyectos
paralelos para impedir que Japón, en caso de tener éxito, se apoderara del comercio
informático mundial. El resultado de todos estos proyectos fue un conjunto de avances en
campos aislados que, aunque no se aproximaban a los objetivos previstos al principio, tampoco
eran despreciables. Fueron precisamente los campos nuevos, los de la visión artificial y los
sistemas expertos, junto con el procesamiento de textos en lenguas humanas y un nuevo
desarrollo de las redes neuronales, los que conocieron mayores avances, que hasta el
momento han impedido que la inteligencia artificial caiga de nuevo en una etapa de
investigación detenida.
Los campos en los que se divide hoy la investigación en inteligencia artificial son: demostración
automática de teoremas, juegos inteligentes, procesamientos del lenguaje natural, hablado y
escrito, visión de maquinas, sistemas expertos, redes neuronales artificiales. A primera vista
puede pensarse que esta disciplina no es más que un cajón de sastre, un revoltillo de
actividades que tienen poco en común, aparte del hecho que para nosotros, los seres
humanos, resultan simples, mientras que nos esta resultando muy difícil conseguir que las
maquinas las realicen. Y donde lo conseguimos, ya no nos parecen tan inteligentes y se alzan
voces que niegan que dichas aplicaciones deban seguir llamándose inteligencia artificial. Por
eso hay quienes definen, con ironía, la inteligencia artificial como la rama de la informática que
se ocupa de todo lo que todavía no sabemos hacer con un ordenador.

Definición de I.A.

¿De que manera podríamos definir la inteligencia artificial para que abarque de modo natural
todos los campos anteriores, aparentemente tan dispares? Bastara con fijarnos en que, en
todos los casos, la información que se procesa es de un tipo especial, muy diferente de la que
utilizan los programas clásicos de ordenador. En lugar de un procesamiento predominante
numérico, en todos estos casos se trabaja con información textual o simbólica. Por otra parte,
los métodos utilizados para procesar la información no se basan en teorías establecidas o en
algoritmos cuya eficacia se pueda demostrar o incluso deducir mediante procedimientos,
digámoslo así, matemáticos, sino que se apoyan casi exclusivamente en la experiencia (reglas
heurísticas). Por esta razón, la definición oficial de la inteligencia artificial puede expresarse con
las siguientes palabras: "La inteligencia artificial es el conjunto de técnicas utilizadas en un
ordenador que permite procesar información simbólica por medio de procedimientos heurísticos
".
Pasamos ahora a detallar algunos de los avances más importantes experimentados
recientemente en los distintos campos de la inteligencia artificial.
Entre los juegos inteligentes, dominadas ya las damas desde los años 60, el chaquete o
backgammon fue el segundo en caer, cuando el programa BKG 9.8, diseñado por el
norteamericano Hans Berliner, logro en 1979 vencer al entonces campeón mundial (el italiano
Luigi Villa). más o menos a partir de esta fecha aparecieron en las tiendas de aparatos
electrónicos unas maquinas capaces de jugar al ajedrez a nivel bastante aceptable, mejor que
el de la mayoría de la población. Sin embargo, no se puede hablar en este caso de inteligencia
artificial, pues, aprovechando la velocidad creciente de los microprocesadores que contienen,
se limitan a revisar un numero muy grande de posibilidades y a elegir la más prometedora, de
acuerdo con un sistema de puntuación de situaciones totalmente preprogramados.
Sin embargo, si ha habido avances en los programas de ordenador que aprenden de sus
errores, y algunos de ellos han logrado ascender muchos puestos en la calcificación mundial de
jugadores de ajedrez rebasando a muchos seres humanos.
En el campo de la visión de las maquinas, los avances más espectaculares se han conseguido
en la robótica, que se utiliza sobre todo para automatizar la fabricación, por medio de brazos
móviles (robot), capaces de obtener información visual sobre el entorno que les rodea (por
medio de cámaras de televisión) y de procesar dicha información para reconocer las piezas y
componentes que necesitan utilizar en la realización de las operaciones para las que han sido
programados.

Proyectos de defensa

La respuesta norteamericana al desafío del proyecto japonés de la quinta generación de


ordenadores se centro sobre todo en este campo, y fue patrocinada por el Departamento de
Defensa de EE.UU., y en particular por la Agencia de Proyectos de Investigación Avanzada
(DARPA), que desarrollo un plan muy ambicioso cuyo objetivo es la aplicación de la inteligencia
artificial a problemas críticos de la defensa.
Uno de los proyectos más avanzados, realizado en la colaboración con la Universidad
Carnegie-Mellon, tiene como meta el desarrollo de un vehículo terrestre autónomo, es decir, un
coche sin conductor. La versión actual de este vehículo (un camión cargado de procesadores)
es capaz de planear y ejecutar rutas de varios kilómetros a través del campus de la
universidad, evitando obstáculos y alcanzando velocidades moderadas (de 5 a 10 km/h).
También existen proyectos paralelos que tratan de desarrollar vehículos aéreos o submarinos
autodirigidos.
Mas ambicioso es el proyecto Pilot’s Associate (asociado del piloto) de un avión de caza, cuya
complicación es tan grande que un ser humano ya no es capaz de mantenerlo con la máxima
eficiencia, sobre todo si se encuentra en una situación hostil. Si este proyecto se lleva
finalmente a la practica, el avión ira provisto de varios sistemas expertos, que asumirán
determinados papeles durante el vuelo (mecánico de a bordo, navegante, oficial de
contramedida, gestor táctico... ), proporcionando al piloto el equivalente de una tripulación de
expertos. El mecánico de a bordo, por citar un ejemplo, comprobará el estado de los restantes
sistemas y podrá modificar el funcionamiento del avión, si es necesario, de forma
semiautonoma.
Finalmente, la iniciativa de Defensa Estratégica o SDI (siglas de Estrategic Defence Initiative,
conocida comúnmente bajo el nombre de Star Wars o "Guerra de las galaxias") intenta
construir un sistema de defensa espacial para proteger a los EE.UU. contra un ataque con
misiles nucleares. El sistema es tan complejo (tiene que supervisar gran cantidad de
información obtenida mediante satélites y responder en un plazo muy breve, que en la practica
se reduce a minutos), que tiene que tomar automáticamente sus propias decisiones, lo que
significa que será necesario utilizar técnicas de inteligencia artificial.
También la Agencia Espacial Norteamericana (NASA) ha considerado la posibilidad de utilizar
estas técnicas en la exploración del espacio. Las próximas misiones y sondas planetarias
(notoriamente una que podría partir hacia Titán, el mayor de los satélites de Saturno, hacia el
año 2000) serán casi completamente automáticas y utilizaran la inteligencia artificial para
corregir los errores que puedan surgir durante el viaje y para hacer más eficaz la exploración de
lugares desconocidos del sistema solar.

SISTEMAS EXPERTOS

Un sistema experto en un tipo concreto de problema es un programa que trata de obtener


resultados, a partir de los datos disponibles, de una manera semejante a como lo haría un
experto humano en el mismo campo.
Del estudio de estos expertos se deduce que, a menudo, utilizan reglas heurísticas (es decir,
producto de la experiencia) que pueden expresarse más o menos así:" si se cumplen estas y
aquellas condiciones, podemos deducir que ocurre tal o cual cosa". O bien" cuando ocurren
estas y aquellas circunstancias, hay que actuar de determinada manera". Las primeras podrían
llamarse reglas de diagnostico, pues nos permite analizar e identificar la situación con la que
nos enfrentamos, mientras que las segundas son regla s de actuación, que nos capacitan para
responder a dicha situación. Un experto utilizara primero la regla de diagnostico y, como
consecuencia de ella, pasara a aplicar la de actuación.
Los sistemas expertos se diferencian de los programas de ordenador convencionales en su
estructura y en la forma en que organizan la información de que disponen. Mientras en un
programa clásico existen dos niveles (las instrucciones y los datos), en los sistemas expertos
podemos distinguir cuatro componentes diferentes. En primer lugar, los datos sobre el
problema concreto con el que nos enfrentamos, que a veces se llama axiomas. En segundo
lugar, un conjunto de reglas heurísticas de los dos tipos indicados arriba. En tercer lugar, un
sistema o motor de inferencias, capaz de aplicar las reglas sobre los datos de que dispone.
Finalmente, un interfaz de usuarios que permite un uso correcto y simple del sistema experto
por una persona poco ducha en informática.
El papel que desempeñan las instrucciones en los programas clásicos se ve aquí dividido entre
las reglas (que incorporan la información que utilizaría un experto humano en el mismo campo)
y el motor inferencias, que es el mismo, cualquiera que sea la información y las reglas de que
se disponga y que, por tanto, puede servir para un número ilimitado de sistemas expertos
diferentes. El conjuntos de las reglas utilizadas por el sistema experto y de los datos
correspondientes al problema concreto que se trata de resolver se denomina base de
conocimientos del sistema experto, y esta es la parte que varia entre un sistema experto y otro
diferente que utilice el mismo motor de inferencias.
Algunas veces no se hace distinción entre reglas y datos o axiomas. La razón de esto es que
una regla es una afirmación condicional (B si A), mientras que un datos una afirmación
incondicional, que también puede considerarse como un caso particular de regla donde A se
cumple siempre (y por ello B se cumple siempre).
La interfaz del usuario no es esencial para el funcionamiento de un sistema experto, pero sí
facilita considerablemente su utilización, y en el mejor de los casos debería permitir al usuario
comunicarse con el sistema experto de la manera más natural posible: con frases
pertenecientes a su propia lengua.
El conjunto de una interfaz de usuario, de un motor de inferencias y de un sistema de soporte
de una base de conocimientos vacía (sin información) no es un sistema experto, sino un
entorno de desarrollo de sistemas expertos (expert system shell). Existen en el mercado varios
entornos de desarrollo de este tipo. Sólo después de introducir la información correspondiente
en la base de conocimientos se podrá hablar de un verdadero sistema experto.

PROCESAMIENTO DEL LENGUAJE NATURAL

El problema del procesamiento del lenguaje natural puede dividirse en dos partes principales: el
del lenguaje hablado (procesamiento de voz) y el del lenguaje escrito (procesamiento de textos
en lenguaje natural); cada una de Las dos partes se divide, a su vez, en varios subproblemas
diferentes. Pero procedamos con orden.

Procesamiento de voz

El primero esta esencialmente resuelto: basta disponer de una base de datos de sonidos
silábicos (el numero de sílabas diferentes de una lengua hablada es relativamente pequeño
algunos centenares), y de algoritmos para variar su entonación y combinarlas entre si.
Ultimamente se ha hecho famoso el sistema generador de voz que utiliza el físico Stephen
Hawking para dar conferencias, dado que su enfermedad impide hablar audiblemente. En
cambio, la comprensión del lenguaje hablado es un problema más arduo, que normalmente se
aborda en dos etapas: en la primera, Las fases habladas se traducen al texto escrito.
La segunda (la interpretación de dicho texto) se reduce al problema de la compresión del
lenguaje escrito, que veremos más adelante.
Aun no se ha conseguido la traducción correcta por ordenador de frases habladas,
cualesquiera a texto escrito. Para poder abordar el problema se han introducido restricciones
que lo hacen más sencillo, especialmente algunas de Las siguientes:
- Restricción del texto hablado
- Restricción de la velocidad con que se habla
- Restricción de la persona que habla
Se utiliza la primera cuando lo que se desea interpretar es un subconjunto reducido del
lenguaje hablado. Por ejemplo: ordenes para el sistema operativo de la computadora. Existen
en el comercio varios programas y tarjetas de procesamiento de voz que permiten a cualquier
persona emitir dichas ordenes ante un microfono y ser obedecida. Ahora bien, si el texto
hablado es cualquiera (como ocurre en un sistema editado por ordenador), el número de
combinaciones es tan grande, y existen tantas diferencias de acento y pronunciación entre Las
personas, que es prácticamente imposible construir un programa capaz de entender todo lo
que hable cualquiera de ellas. Existen dos maneras de resolverlo: o se obliga al que habla a
separar las palabras (es decir, a hablar despacio) o se adapta el sistema de procesamiento de
voz a una persona concreta, mediante una etapa de aprendizaje.

Procesamiento del lenguaje natural escrito

El problema del procesamiento de textos en lenguaje natural puede descomponerse en otros


tres:
- Generación por ordenador de lenguaje natural comprensible.
- Comprensión por el ordenador del lenguaje humano escrito.
- Traducción automática entre dos lenguas humanas diferentes.
La generación por ordenador de lenguaje natural es el más sencillo de los tres. La forma más
fácil de resolverlo se reduce a dotar al programa de una biblioteca de frases prefabricadas, que
utilizara tal como están cuando se presente la oportunidad correcta. Evidentemente, Las
posibilidades del programa se limitan a las frases que contenga su biblioteca, que puede ser
tan grande como se desee, pero más pronto o más tarde comenzaran a repetirse, como sucede
en el caso del famoso programa ELIZA, que imita la conducta de un psiquiatra ante un
enfermo.
En casos más complicados, se dota al generador de textos de una gramática a la que deben
adaptarse las frases producidas, que no es necesario que sea tan compleja como la de los
lenguajes humanos para que los resultados tengan el aspecto de frases normales, de las que
usamos cada día. Estos programas disponen de un diccionario, de donde pueden extraer las
palabras apropiadas para rellenar la oración que están generando. A veces, la selección de
palabras es aleatoria (se realiza al azar), como en un programa construido por el poeta español
Juan Ruiz de Torres, que produce poesías aceptables en lenguas castellana.
Es evidente que la comunicación con los ordenadores se facilitaría si pudiésemos utilizar para
ellos un lenguaje humano (ingles, castellano, etc.), en lugar de los lenguajes artificiales
especializados con los que los programamos. El problema es que nuestras lenguas maternas
son muy ambiguas, pues hay palabras con doble o triple sentido, que a veces desempeñan
papeles sintácticos distintos, y cuya interpretación en cada caso concreto depende del contexto
en que se encuentran y, a veces, de una enorme cantidad de conocimientos sobre las cosas y
el mundo que los ordenadores no poseen. Estas ambigüedades no existen en los lenguajes de
programación, que han sido diseñados para facilitar el análisis. Además los lenguajes naturales
tienen una característica propia llamada polisemia, la que los diferencia, como veremos, de los
códigos computacionales.
En la actualidad, el problema de la comprensión del lenguaje natural por las máquinas dista
mucho de estar resuelto, pero, como en el caso del procesamiento de voz, hay aproximaciones
de utilidad práctica. La primera, la menos sofisticada, que no puede considerarse inteligencia
artificial, consiste en hacer que el programa dirija el dialogo, forzando al usuario a responderle
dentro de unos marcos muy rígidos, ya sea por medio de selecciones en menú, o mediante
preguntas escogidas que sólo puedan responderse con SI o NO. Evidentemente, tendremos un
dialogo en lenguaje natural, pero el usuario no ha llegado a escribir una sola frase completa.
En una segunda aproximación, lo que el programa interpreta no es un lenguaje natural sin
restricciones, sino una versión simplificada, con reglas gramaticales más estrictas que las
ordinarias, para evitar la ambigüedad. Podríamos, por ejemplo, forzar al usuario a utilizar
siempre oraciones de Las forma sujeto-verbo-complemento directo.
En la tercera aproximación, dejaremos libre la sintaxis del lenguaje, pero se restringe el ámbito
semántico, es decir, los sentidos posibles de las palabras. Esta técnica se utiliza a menudo en
la interfaz de usuario de los sistemas expertos, en los que el tema sobre el que se esta
dialogando se constriñe a un campo muy concreto. Por ejemplo, en un sistema experto en
diagnostico medico, las palabras posiblemente ambiguas tomaran con preferencia aquel
significado que tenga algo que ver con la medicina. Además, y para ganar tiempo, el programa
no suele analizar la sintaxis del texto que ha recibido, sino que se apoya únicamente en los
términos más importantes para deducir el significado de la frase, en el contexto de la
conversación. Por ultimo, si el sentido es aun dudoso, siempre queda el recurso de preguntar
directamente al usuario "¿es esto lo que quiere usted decir? ", con lo que este se vera obligado
a responder que si, o bien dará una explicación más detallada de la frase anterior. Gracias a
estos artificios, algunos de los sistemas expertos que se construyen en nuestros días dan la
impresión de que comprenden perfectamente el lenguaje natural, aunque sólo realizan un
análisis muy parcial e incompleto.
La investigación más avanzada en este campo trata de analizar los textos como lo haría un ser
humano, descubriendo sus cualidades sintácticas y traduciéndolo a un formato interno basado
en algún sistema de representación del conocimiento. A continuación, el programa tratara de
interpretar el sentido de la frase, utilizando para ello una base de datos que contenga
información contextual, obtenida quizá progresivamente, por aprendizaje. Este tipo de análisis
del lenguaje natural esta aun lejos de dar resultados prácticos apreciables.

Traducción automática

Como dijimos en la introducción, la traducción automática de textos de un lenguaje natural a


otro diferente ha resultado mucho más difícil de lo que se preveía en los años cincuenta. En
cierto modo, la solución completa de este problema deberá esperar hasta que se resuelva
favorablemente la cuestión de la comprensión del lenguaje natural, que es más sencilla, pues
en la traducción hay que tratar con dos idiomas humanos y se multiplican los sinónimos,
homónimos, ambigüedades, dobles sentidos y complicaciones gramaticales. Todo el mundo
sabe que la traducción literal, palabra por palabra, no produce casi nunca textos aceptables en
la otra lengua.
Pero si la traducción automática perfecta no esta aun a nuestro alcance, si podemos conseguir
algunos resultados prácticos aproximados que permitan mejorar la eficiencia de los traductores
humanos, ya que no es posible sustituirlos.
Un programa de traducción automática podría proporcionarle una primera versión imperfecta,
que le bastará corregir para eliminar los errores y mejorar el estilo lo que es evidentemente más
rápido que empezar de cero. Existen ya diversos sistemas comerciales, que traducen lenguajes
como el ingles, francés, castellano, alemán, italiano o japonés, algunos de los cuales procesan
más de cien mil palabras por hora, con una exactitud próxima al 90%. Gracias a estos
programas, el traductor humano puede fácilmente duplicar su productividad.

LENGUAJE NATURAL VS. CODIGO COMPUTACIONAL

Lenguajes de programación

Como hemos visto, toda computadora digital trabaja internamente con señales eléctricas que
representan unos y ceros. Ellos forman un código binario que puede representar cualquier
número, letra o símbolo. Así se expresa el único lenguaje que es capaz de interpretar la
computadora y que se denomina LENGUAJE MAQUINA. Como variante del lenguaje máquina,
se emplea la escritura hexadecimal, que resulta más práctica porque los números así
representados tienen menos cantidad de cifras, con lo cual se escriben más rápidamente y se
cometen menos errores. También podemos ver, por ejemplo cuando mostramos un programa
EXE por pantalla, que el mismo está representado por varios símbolos en un código llamado
ASCCI. Allí se ha utilizado este código con el fin de abreviar la representación del programa,
pero internamente, es decir en la memoria, el programa se halla escrito en el lenguaje de unos
y ceros.
¿Qué entendemos por lenguaje en una computadora? Simplemente un conjunto de símbolos y
reglas utilizadas para intercambiar informaciones y comunicarnos con la computadora.
Se ha tratado de elaborar lenguajes de computación lo más parecidos posible al lenguaje
natural. Como los desarrollos de este tipo se realizan en los países de habla inglesa, los
lenguajes de computación tiene términos en inglés (por ejemplo el Pascal).
Por lo tanto, al construirse un nuevo lenguaje resulta imprescindible que, mediante algún
procedimiento automático, el mismo sea traducido al único lenguaje que conoce la
computadora, el lenguaje máquina.
Los lenguaje se clasifican en tres grandes grupos:
- LENGUAJE MAQUINA: ya lo mencionamos. La ventaja fundamental de los programas
escritos en este lenguaje es que resultan mucho más rápidos y requieren menos memoria que
los programas escritos en alto nivel.
- LENGUAJE DE BAJO NIVEL: el más conocido es el ASSEMBLER, que permite escribir un
programa utilizando instrucciones nemotécnicas, en lugar de binarias. Es de hacer notar que,
aprender a programar en bajo nivel requiere un mayor conocimiento de la estructura interna del
microprocesador y de su modo de operar.
- LENGUAJE DE ALTO NIVEL: Más cercanos al lenguaje oral (inglés) como el Basic, Pascal,
etc.

Lenguaje natural

No es correcto hablar de "lenguajes de computación", lo que usualmente se llama lenguajes de


computación son, en verdad, códigos. ¿Qué es un código?. Es un sistema de obligaciones y de
correspondencia biunívoco. Por ejemplo, nosotros ahora podemos establecer un código: el que
levanta la mano con el índice hacia arriba expresa (significa) que quiere hablar. Y para querer
hablar, sólo esta señal. Hay una correspondencia biunívoca entre el levantamiento del índice y
querer hablar. Una vez que establecemos un acuerdo, y se establece con obligatoriedad, pasa
a llamarse código.
Todas las lenguas modernas tienen dos grandes aspectos: código y concepto. La doble
articulación se refiere a que hay un primer nivel que son los fonemas. Y estos fonemas, que en
sí mismos son como partículas carentes de significado, por reglas de combinación sintácticas y
semánticas, pasan a un segundo nivel como palabras y frases y sí tienen significado.
Una lengua, cualquiera sea, tiene un aspecto que es el código (la parte estable), compuesto, a
su vez, del elemento fonemático.
Un segundo aspecto de lo que integra el código es el orden, el ordenamiento, es decir, la
sintaxis. Hay un ordenamiento general para todas las lenguas modernas, pero a su vez cada
lengua tiene algunos aspectos sintácticos diferentes: Por ejemplo, la aprobación sujeto-verbo-
objeto es general, pero a la vez hay aspectos diferenciales: en inglés el adjetivo va antes que el
sustantivo, en inglés, mientras que en español es distinto. Y tenemos el nivel morfológico: es
decir, los ajustes que hay que hacer en los comienzos y terminaciones de las palabras (prefijos
y sufijos) para que concuerden las palabras entre sí en el número y el género. El nivel
morfológico no es otra cosa que una aplicación de la semántica sobre la sintaxis. No es un nivel
en sí.
Pero este es el sostén de lo peculiar de la lengua humana, que es la polisemia.
Cuando se dice una palabra, no sólo el significado estará dado por la relación con las otras
palabras, sino también con lo que está implícito: si digo ventana, no estoy diciendo pared,
ladrillo, etc. Es decir que cuando digo explícitamente algo, lo hago sostenido sobre el bagaje
implícito de lo que no expreso. Entonces: el código es el sostén, pero lo peculiar del carácter
humano de la lengua es el concepto. Es esa posibilidad de cada palabra que es palabra en
tanto tiene la posibilidad de combinarse, y existe en combinación con las demás implícita o
explícitamente No existe la noción de palabra suelta, es siempre parte de un sistema.
Entonces, la polisemia es esta potencialidad de combinación virtual de cada palabra. Pero
además cada palabra puede conectarse con las demás no sólo de manera consciente, sino,
como lo descubrió el psicoanálisis, de manera inconsciente. Lo que habla de una frondosidad
simbólica todavía mucho mayor. Por ejemplo, si digo que la ventana está pintada de verde,
simultáneamente se producen, aunque yo no sea consciente de esto, asociaciones sobre qué
tendrá que ver la ventana en mi historia, sobre todo la ventana verde, de cuando yo espiaba o
me espiaban, etc.
En los lenguajes formales como el de la lógica y la matemática, desaparece el significado.
Queda un puro símbolo. Las ciencias formales trabajan con símbolos que no significan, son
solo referencias simbólicas para operar. Por eso las ciencias formales se manejan con
lenguajes que tienen solamente la dimensión sintáctica, no la semántica.
También los lenguajes técnicos (de otras ciencias) se constituyen restringiendo polisemia. Pero
al hacerlo matan al lenguaje, pues un sistema es lenguaje por ser polisemico. Por lo tanto no
son lenguajes, sino "códigos".
La computadora carece de polisemia. Y no por encontrarse en una determinada etapa de su
desarrollo sino por una situación estructural, que es intrínseca a la noción de las posibilidades
de la computadora: que es carecer de polisemia. Y esta es una diferencia cualitativa con el
psiquismo, con el ser humano. Cualquiera sean las apreciaciones que veamos en la pantalla
(imágenes, letras, operaciones aritméticas) de la computadora, se traduce en solamente dos
cosas: paso de electricidad y no paso de electricidad.
Para algunos científicos el pensamiento desarrolla estructuras análogas al lenguaje. Ahora
bien, una característica estructural del lenguaje natural es la polisemia. Como hemos dicho, la
polisemia es la potencialidad de cada palabra de combinarse de múltiples modos con las
demás para establecer significados. Un término aislado no significa; sólo en relación con otros
adquiere valor semántico.
Así, el lenguaje natural, y por ende el pensamiento, resulta ser un sistema abierto y como tal
imposible de traducir en reglas formales programables en un ordenador. El ordenador solo
maneja reglas lógicas programadas en él.
Si esto es así, el pensamiento y la inteligencia es mucho más que lógica y la inteligencia
artificial, entendida como emulación total de la inteligencia humana, no será posible.

REDES NEURONALES

Los primeros intentos de crear circuitos electrónicos que emulaban a las neuronas fue el de los
perceptrones. Las experiencia fallaron porque la configuración de la conexión entre neuronas
artificiales era demasiado simple.
Una red neuronal es un conjunto de unidades elementales llamadas neuronas (artificiales), que
están relacionadas entre sí por medio de conexiones. Cada neurona tiene una o varias
conexiones de entrada y una sola de salida, que puede bifurcarse para conectarse a muchas
otras neuronas. Además, a cada neurona se le asocia un número, llamado umbral, y a cada
conexión otro número, su peso. Estos números pueden ser enteros o fraccionarios, positivos o
negativos.
Cuando una neurona recibe estímulos procedentes de otras neuronas, puede o no enviar una
señal por su conexión de salida. Si lo hace, diremos que la neurona se ha disparado. Si la
señal de salida de una neurona sólo puede valer cero o uno, se dice que es digital; en caso
contrario, se dice que es analógica. En las neuronas digitales, es frecuente que la neurona se
dispare (produzca una señal de salida igual a uno) cuando la suma de los productos de los
pesos de sus conexiones de entrada por las señales de salida de las neuronas previas, es
mayor que su umbral.
Las redes neuronales no son útiles en sí mismas, sino sólo cuando se las hace capaces de
aprender. Decimos que una red aprende cuando es capaz de modificar su conducta de tal
manera que su salida o respuesta a ciertos estímulos (entradas) se aproxime poco a poco a un
conjunto de respuestas deseadas. La modificación de la conducta se produce porque los pesos
asociados a las conexiones cambian poco a poco, y precisamente de tal manera que se
obtenga una salida determinada en respuesta a cierta combinación de entradas.

LOS ROBOTS: ¿NUESTRA DESCENDENCIA?

A pesar de los increíbles avances de la tecnología, las máquinas no han podido, hasta hoy,
conquistar algunos de los fuertes de los seres humanos:
• Sólo pueden resolver problemas en un contexto limitado, en cambio un médico, por
ejemplo, sabe mucho más que medicina.
• Fallan los mecanismos de búsqueda y selección de la información pertinente, como
ocurre en Internet. El cerebro humano realiza búsquedas por algún método heurístico
que no conocemos. Como cuando localizamos a un ser querido entre una multitud, sin
verificar, obviamente, la identidad de las demás personas.
• Las computadoras son máquinas físicas. Ahora se experimenta con la simbiosis, es
decir con la conexión de los circuitos eléctricos a tejidos vivos. Pero el hombre, para
muchos científicos y filósofos, es más que física y química. Un religioso agregaría el
alma. La búsqueda científica del alma se está llevando a cabo por parte de eminentes
personalidades, pero aun no han obtenido respuestas.
• La conciencia es la capacidad del pensamiento, de captarse a sí mismo y, con
Descartes, ha quedado plasmada en su "Pienso, luego existo". No sabemos si
compartimos esta característica con algunos de los seres vivos, pero sí estamos
seguros de que las máquinas no son conscientes de su propia existencia.
• La creatividad es propia de los artistas y científicos. Se realizan intentos de crear
programas creativos que escriban poemas, pinten cuadros, inventen nuevos
compuestos químicos, etc. A pesar de que la creatividad fue siempre considerada
como una cualidad humana y hasta una iluminación divina, los griegos de la
antigüedad clásica ya habían comenzado a buscar las fórmulas de la belleza, como la
proporción en la pintura y la armonía en la música. Si alguna vez llegamos a hallar las
leyes de la creatividad, es posible pensar que puedan volcarse en programas
computacionales creativos.
• Hoy sabemos que los sentimientos son procesos biológicos. Ocurren a partir de una
señal por la cual el individuo libera sustancias químicas, como la adrenalina, y diversos
neurotransmisores. Los biólogos y psicólogos se disputan el terreno de la afectividad.
Si todo sentir puede reducirse a reacciones químicas, es dable pensar que la
computadoras puedan alcanzar algún día esta facultad.
Hay científicos que opinan que la computadora es la fase superior de la evolución: simio –
hombre – máquinas.
¿Por qué afirman esto? Porque en el futuro las máquinas podrán reprogramarse, es decir
crearse a sí mismas.
Este punto de vista es defendido, por ejemplo en "El hombre mecánico" por Hans Moravec:
"nuestras máquinas llegarán a tal grado de erudición que podrán dedicarse a su conservación,
reproducción y perfeccionamiento sin necesidad de ayuda. Cuando suceda, se habrá terminado
el relevo genético. Nuestra cultura podrá evolucionar con independencia de la biología humana
y de sus limitaciones, y pasará de una generación de máquinas capaces e inteligentes a otra
mucho más perfecta".

Entrevista con Bruce Shelley

Fuente: GameSpot Uk Traducción: RA_Diver


El creador de Age of Empires, Bruce Shelley, habla con GameSpot UK sobre los
radicales cambios hechos en la inteligencia artificial y el papel de Juana de Arco en Age of
Empires II: Age of Kings.
GameSpot UK: ¿Qué hay nuevo en AoK en cuanto al sistema de juego? Decís que habéis
mejorado la Inteligencia Artificial (AI) ¿Cómo exactamente?
Bruce Shelley: Hemos reescrito completamente las rutinas de IA. Usamos "Expert
Systems", la IA será experta en el sentido de cómo responde a lo que está ocurriendo
en el juego. Seguirá varios cientos de reglas, y está programada para hacer ciertas
cosas bajo ciertas condiciones de juego. Así, por ejemplo, al principio del juego puede
estar programada para ir a la siguiente edad tan rápidamente como pueda. Cuando
esté allí, podría tomar una decisión sobre si su próxima meta será atacar a alguien o
ir a la siguiente edad, por ejemplo, y lo que hará dependerá en parte de lo que haya
encontrado al explorar el mapa. Si ha encontrado un enemigo muy cerca, puede tomar
la decisión de atacarle. O, si no lo ha encontrado, puede pensar: "Bien, estoy
relativamente seguro" y tomar la decisión de concentrarse en avanzar de edad y
construir una fuerza militar. La idea general es que jugará su juego basándose en lo
que ha aprendido al explorar el mapa, bastante parecido a como lo haría un jugador
humano. Cómo actúe dependerá también de que civilización tiene; cada civilización
tendrá ventajas y debilidades. Entonces, a medida que el juego progrese, los
programas de IA la llevarán por diversas bifurcaciones. Por ejemplo, podría planear
construir una Maravilla: recogerá los recursos necesarios y levantará una muralla
defensiva. Pero antes de que termine su Maravilla, yo construyo una. Ahora, la IA se
da cuenta de que nunca me alcanzará y que mi Maravilla estará terminada antes que
la suya. Entonces para de trabajar con la maravilla, cambia la lista de edificios a
construir y concentra su atención en destruir mi maravilla. Queremos hacer la IA más
como un jugador humano, de forma que sientas que estás jugando contra alguien listo.
GSUK: Entonces, ¿habéis dicho adiós a la IA de Age of Empires y habéis empezado de
nuevo?
BS: Sí, la hemos roto y hemos empezado de cero. Ahora, la IA explorará el mapa,
recordará dónde están las cosas y responderá a los acontecimientos del mapa. Si
encuentra unidades, sabrá dónde están e irá tras ellas. Si se encuentra con torres,
arrancará a hacer máquinas de asedio. Estamos trabajando el los programas de IA
para las batallas. Yo escribo uno, y mis colegas Sandy y Mario otros. Preparamos un
juego de tres jugadores, por ejemplo, con Sandy como jugador y los otros dos los
programas de IA de ambos. En cuanto el juego arranca, Sandy se rinde y mira el
resto del juego, de forma que se enfrenta una IA contra la otra. Él verá el mapa
completo, con alta resolución y a alta velocidad, y el juego termina en unos 20
minutos. Una IA o la otra ganará, y Sandy podrá ver qué ha hecho su IA y qué no, y
podrá reajustar el script. Meteremos en el juego un cierto número de scripts de IA,
por lo que podrás estar listo para jugar enseguida una partida de mapa aleatorio o
multijugador. Pero también tendrás la posibilidad de escribir tu propio script de IA,
ponerlo en tu fichero de datos y jugar contra él.
GSUK: ¿Qué implica poder escribir tu propio script IA? ¿Qué cosas supones que harán los
jugadores con él?
BS: Podrías, por ejemplo, querer ver cómo se lucha contra un ejército de caballeros y
piqueros, o de caballeros y arcabuceros. Entonces, harías un script IA que
construyera ciertos tipos de unidades, digamos armas de asedio o torres y verías
cómo hacen para pararlos. O podrías enfrentar la IA de los piqueros contra la de la
caballería. Lo vemos como algo divertido.
GSUK: ¿Esperas ver en la Web cosas que haya hecho la gente por sí misma?
BS: No estoy seguro de lo que espero. Quizá algunas estrategias locas, como enviar
hordas de unidades que no esperas encontrar en hordas. Quizá la gente quiera
construir un ejército de 50 samurais y enviarlos gritando contra ti.
GSUK: Habéis dicho que habéis cambiado la exploración. ¿Qué implica este cambio?
BS: Significa que si le dices a una unidad o a un grupo de unidades que vayan a algún
sitio, ellas harán un mejor trabajo para llegar rápidamente, correctamente y al sitio
correcto.
GSUK: ¿Y en la formación correcta?
BS: La forma en que trabajan las formaciones, básicamente, es que hay un tipo de
formación para luchar y otro para moverse. Hay diferentes tipos de formaciones de
combate: columnas, líneas y cuñas. Puedes colocar a tus unidades de arquería en la
retaguardia y a la infantería delante. Si coges la formación y sólo la mueves un
poquito, mantienen la formación al moverse. Pero si mueves tus soldados a una larga
distancia, adoptarán la formación en columna, que se mueve más rápido, y después,
cuando lleguen al lugar que les has señalado, vuelven a a la formación de combate
inicial.
GSUK: Justamente como un ejército bien entrenado, en otras palabras...
BS: Exactamente. Esto va así en el juego, y la exploración tiene mucho que ver en
cómo trabaja. Hay tres tipos de IA en el juego: cómo se mueven las unidades
alrededor del mapa, cómo reaccionan a lo que ocurre y cómo el jugador juega la
partida en conjunto. Las llamamos exploración, IA de unidades e IA estratégica.
Están interrelacionadas, pero son distintos tipos de IA.
GSUK: Cuéntame algo sobre las características de las nuevas campañas, como Juana de
Arco y William Wallace. ¿Cómo funcionarán?
BS: Las campañas están basadas en figuras históricas y basadas en la Historia.
Juana, por ejemplo, empieza como una campesina que reúne un ejército. En el
siguiente escenario ella dirige el ejército.
GSUK: ¿Tú la controlas, de hecho?
BS: Juana estará de hecho en el mapa. Todos los héroes están en el mapa, luego
estará una unidad William Wallace y una unidad Genghis Khan. Son unidades
poderosas, pero si las pierdes quedas fuera de la partida, así que tienes que tener
cuidado de cómo las usas. Y pueden tener alguna habilidad especial.
GSUK: ¿Qué otras cosas habrá en Age of Empires II?
BS: Habrá algunas características que sólo aparecerán en el editor de escenarios:
algunos edificios y personalidades que no aparecerán en el juego normal. Tu puedes
poner scripts, como pasos a seguir en el escenario. En las partidas, puedes recibir un
mensaje de un heraldo diciendo que trae malas noticias y que las cosas han cambiado,
por lo que tienes que hacer algo en concreto: entonces tú debes estar preparado para
cambiar tus objetivos. La IA es más inteligente en el sentido de que sabe cuándo está
en problemas, y si tú eres su aliado te pedirá ayuda. La IA sabe cuándo está siendo
derrotada y antes de rendirse tributará los recursos a su aliado.
GSUK: ¿Cómo ha cambiado el modo multijugador en AoK? Parece que habrá una nueva
forma de victoria llamada Regicidio.
BS: En Regicidio, cada jugador tiene un rey o reina en el mapa, y para ganar al otro
jugador tienes que matar a su rey o reina. Es como capturar la bandera, o una mezcla
de ajedrez y juego de estrategia en tiempo real. En conjunto, el modo multijugador no
ha sido muy cambiado, creemos que funcionaba bien en AoEI. Pero hay algunas cosas
nuevas en la interfaz para un más sencillo funcionamiento., como algunas cosas que se
incluyeron en Rise of Rome , el doble clik para seleccionar a todas las unidades del
tipo de la que picas. O, si una granja se agota, se recupera picando en ella con el
botón derecho. También puedes moverte a través de las granjas y los edificios,
ganando espacio para jugar. Incluso aunque algunos edificios son grandes, los mapas
son mayores, dándote más espacio utilizable en el juego.

http://alianza.meristation.com/edaddelosreyes/BShelley.htm

Información recopilada de -Internet- por Soft_Montdiví:


http://usuarios.tripod.es/montdivi montdivi@mixmail.com

Software independiente, dedicado a la programación de la –IA-.

Tarragona. 05/11/2001 (Programmer manager.) Virginio Díaz M.

S-ar putea să vă placă și