Documente Academic
Documente Profesional
Documente Cultură
- Inteligencia Artificial -
- HOLA
- HOLA ORDENADOR, ME GUSTARIA QUE ME AYUDARAS.
- ¿DE QUE SE TRATA ?
- NECESITO QUE ME DIGAS DONDE ENCONTRAR UN DIALOGO ENTRE MAQUINA Y
HUMANO.
- ¿PARA QUE ?
- PARA UNA PAGINA WEB.
- NO LO NECESITAS.
- ¿CÓMO QUE NO ?, ¡ LO NECESITO PARA MAÑANA !
- YA TE HE DADO UNO.
Este es un claro ejemplo de lo que podría ser una conversación de un humano con
una máquina en el futuro, aunque actualmente estamos muy lejos de llegar a esto.
Eliza, la psicoterapeuta
El programa
Todos los hombres son iguales.
¿EN QUÉ SENTIDO?
Siempre están dándonos la lata de una forma u otra.
¿PUEDES DARME UN EJEMPLO CONCRETO?
Por ejemplo, mi novio me ha hecho venir aquí.
TU NOVIO TE HA HECHO VENIR AQUÍ.
Dice que ando deprimida la mayor parte del tiempo.
ME DA PENA OÍR QUE ESTÁS DEPRIMIDA.
Es verdad, soy infeliz.
¿PIENSAS QUE EL VENIR AQUÍ TE VA A AYUDAR A NO SER INFELIZ?
Sólo sé que necesito ayuda.
¿QUÉ SUPONDRÍA PARA TI EL RECIBIR AYUDA?
Quizás aprendería a llevarme bien con mi madre.
CUÉNTAME MÁS COSAS DE TU FAMILIA.
Mi madre cuida de mí.
¿QUIÉN MÁS EN TU FAMILIA CUIDA DE TI?
Mi padre.
TU PADRE.
Tú eres como mi padre en cierto sentido.
¿QUÉ PARECIDOS VES?
No eres muy agresiva, pero me parece que no quieres que lo note.
¿QUÉ TE HACE PENSAR QUE YO NO SOY MUY AGRESIVA?
Tú no discutes conmigo.
¿POR QUÉ CREES QUE NO DISCUTO CONTIGO?
Me tienes miedo.
¿TE GUSTA PENSAR QUE TE TENGO MIEDO?
Mi padre tiene miedo de todo el mundo.
¿QUÉ OTRAS COSAS SE TE OCURREN CUANDO PIENSAS EN TU PADRE?
Matones.
¿TIENE ESTO ALGO QUE VER CON QUE TU NOVIO TE HAYA HECHO VENIR
AQUÍ?
Los comentarios
"No imaginaba que un contacto extremadamente breve con un
programa de ordenador relativamente simple podía provocar
pensamientos engañosos en gente por lo demás bastante normal"
Weizenbaum, J. 1976. "Computer Power and Human Reason: From
Judgement to Calculation". San Francisco: W.H. Freeman.
"[Una vez que el programa esté listo para su uso clínico]
proporcionará una herramienta terapéutica que puede ponerse
ampliamente a disposición de hospitales de enfermos mentales y
centros psiquiátricos con escasez de terapeutas...Un sistema de
ordenadores diseñado para este fin podría tratar varios cientos de
pacientes cada hora."
Colby, K.M., Watt, J.B, Gilbert, J.P. 1966. "A Computer Method of
Psychotherapy: Prelimary Comunication", Journal of Nervous and Mental
Disease, 142, pp.148-152.
Las preguntas
• ¿Es cierto que hay en nuestra sociedad una voluntad, o incluso un deseo, de
confiar a los ordenadores el bienestar de los seres humanos?
• ¿Cual es la cuestión importante en AI: si las máquinas que persigue podrán
alguna vez construirse o si las maquinas que persigue deberán jamás
construirse?
Los problemas
• El programa carece de las capacidades que habitualmente asociamos a la
inteligencia:
• conocimiento del entorno
• capacidad de razonamiento
• diseño de planes de acción
• aprendizaje
• comprensión de los propios motivos
http://web1.cti.unav.es/asignaturas/ia/tsld008.htm
Aunque en cierta forma, nosotros que estamos sobre aviso detectamos algo
"sospechoso" en esta conversación, podríamos decir que esta no es del todo
negativa. Entonces, ¿estamos en posición de afirmar que ELIZA ha superado el test
de Turing?, NO, pues en la prueba de Turing debía de enfrentar a dos partes, una
persona y un ordenador, ambas debían de comportarse de forma normal y habría
que averiguar quien era la persona y quien el ordenador, este hecho quedaría al
descubierto en cuanto ELIZA dijese (por ejemplo): "Cuéntame algo más acerca de
tus gusto por las películas en versión original", en una conversación normal no se
utilizan esas expresiones. Lo que realmente le preocupaba a Weizenbaum era que
mucha gente no se enfrentaba a ELIZA con la actitud adecuada. Aún sabiendo de lo
que se trata realmente, habían personas que llegaban a creerse la humanidad y la
compañía de ELIZA, hasta el punto de que, un famoso científico soviético en una
conversación con ELIZA empezó a hablar con la máquina a un nivel muy personal,
todo ello delante de sus anfitriones norteamericanos (en Stanford). Weizenbaum
explicó en su libro Computer Power and Human Reason, que los seres humanos no
se pueden reducir a una máquina de procesamiento de información puesto que, en
gran medida, un organismo se define por los problemas que puede abordar.
Nosotros nos enfrentamos a problemas de los que ninguna máquina puede hacerse
cargo. Hay nociones que ninguna máquina podrá entender nunca porque las
máquinas no comparten nuestros objetivos.
http://lorien.die.upm.es/~macias/doc/pubs/aircenter99/www.aircenter.net/mc13039910.html
EVOLUCION HISTORICA
Prehistoria de la IA
Así como de alguna forma los soportes mecánicos para la automatización de
cálculos aritméticos se sitúan en la prehistoria de los computadores, la prehistoria
de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización
hasta mediados del siglo veinte. En este período se producen hechos que podemos
agrupar en dos líneas: Una de ellas, directamente relacionada con al construcción
de autómatas que simulaban desde el punto de vista externo el comportamiento
humano o animal, y que solían funcionar en ayuda de su amo. La otra línea,
referente a la información y automatización del razonamiento lógico y matemático.
En relación con los autómatas, siempre se ha relacionado la inteligencia con los
aparatos mecánicos complejos. Los hombres, intuitivamente, han comparado la
complejidad del funcionamiento de una máquina con su propia vida mental.
La tradición judía creó el mito del "golem", figura humanoide hecha de arcilla a la
que un rabino podía insuflar vida propia, convirtiéndola en un perfecto criado. Sin
embargo, se requería la intervención divina para conseguir estos espectaculares
resultados.
Al llegar el relacionista siglo XVIII, el siglo de los autómatas por antonomasia, las
cosas fueron muy diferentes. Como es sabido, Descartes había defendido la tesis
del "animal-máquina": los seres vivos, salvo el hombre, son meros mecanismos.
El escritor Capek difunde en 1920 una palabra destinada a tener gran éxito:
"robot". En su obra "RUR" aparecen unos seres creados para realizar las tareas que
el hombre no quiere hacer, que acaban siendo más poderosos que el mismo
hombre, llegando a poner en peligro su existencia.
Hasta la llegada de los ordenadores electrónicos no dispusieron los científicos y
técnicos de una herramienta que permitiera la ejecución de tareas más complejas
por parte de dispositivos mecánicos; que hiciera posible, por así decir, la
construcción de golems y robots.
La automatización del conocimiento: Al llegar al siglo XIX, los matemáticos sienten
por su parte la necesidad de abandonar la institución como fundamento de su
ciencia y buscar para su razonamiento más sólidas bases. La aparición de las
paradojas lleva al desarrollo de los sistemas formales y de lógica matemática. Las
escuelas de Rusell o de Hilbert reducen el razonamiento a la manipulación abstracta
de cadenas de símbolos.
Las teorías de la computabilidad y de los autómatas proporcionaron el vínculo entre
la formalización del razonamiento y las máquinas que estaban a punto de surgir
tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la aparición
de las primeras máquinas electrónicas de computo fuera seguida inmediatamente
por los intentos de aplicarlas a la que hoy llamamos IA.
Un último elemento importante es la cibernética. Esta influyó en muchos campos
debido a su naturaleza fundamentalmente interdisciplinaria, ligado entre sí la
fisiología neuronal. Las ideas de los creadores de la cibernética llegaron a ser parte
del espíritu del tiempo, e influyeron fuertemente en los primeros investigadores de
la IA.
El nacimiento de la IA
El fracaso de la mayoría de los problemas que intentaban resolver eran demasiado
complicados, tanto teórica como tecnológicamente.
La lógica teórica fue considerada como el primer programa de IA y usada para
resolver problemas de búsqueda heurística.
Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de
investigación y en 1954 uno de ellos afirmó haber creado un programa que traducía
del ruso al inglés. La verdad es que los resultados prácticos fueron
descorazonadoramente escasos.
De todas formas, el resultado más espectacular de este período fue el programa de
Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de aprender
de su experiencia, es decir, tener en cuenta sus errores y éxitos pasados, para
determinar sus jugadas en la partida posterior.
El desarrollo actual
Las instituciones públicas y los gobiernos percibieron los grandes adelantos que,
calladamente, había realizado la IA en el decenio de los años setenta. Las empresas
y organizaciones se vieron seducidas por las posibilidades que los sistemas
expertos y la "ingeniería del conocimiento" tenían para aumentar su eficiencia.
Por todo ello, la IA volvió a ser tema de moda, y el impulso definitivo vino de
Japón. En 1979, el Ministerio de Industria y Comercio Internacional del Japón
decidió desarrollar una nueva generación de ordenadores que cumplieran las
necesidades previsibles para la década de los noventa. Aquel mismo año se creó un
grupo de trabajo para estudiar la cuestión. En 1981 se publicaba el informe
elaborado con las contribuciones de unas 150 personas, aprobando el gobierno
japonés los créditos presupuestarios para los que se llamó el Proyecto de la Quinta
Generación de Computadores.
Los demás países respondieron con escepticismo al desafío japonés. Los
americanos, conscientes de su adelanto de varios años y de su mayor potencia
económica y científica, no parecieron muy preocupados. La firma IBM no ha
mostrado en los últimos tiempos un interés excesivo por la IA; aunque acaso esté
reconsiderando su postura.
http://www.unitec.edu.co/biblioteca/ia/tm42ia.html
El programa ELIZA
Casi cada publicación famosa en la IA menciona el programa ELIZA que fue escrito
a finales de los sesenta por el profesor Joseph Weizenbaum de Massachusetts
Institute of Technology (MIT). El progrma fue diseñado como una ayuda al análisis
del lenguaje y el profesor J. W. Lo llamo así en honor a la muchacha que aparece
en la obra de G. B. Shaw, que comenzó como una vendedora callejera de flores y
su vida se transformo cuando el profesor de dicción le enseño a hablar un correcto
ingles, quien asumió esta tarea como parte de una apuesta. Un elemento muy
importante del mensaje de Shaw era que aunque Eliza continuaba siendo la misma
persona, con las misma virtudes y defectos antes y después de su transformación,
la gente la veía de un manera deferente, como una señorita bien vestida y con un
acento culto, en contraste con la desastrada vendedora de flores que hablaba de
una forma vulgar. Podemos obtener la moraleja de esta historia y observar que
aunque un programa sea muy complejo la computadora sigue siendo una
acumulación inanimada de dispositivos electrónicos y que, aunque algunos de los
resultados puedan ser sorprendentes la maquina es capaz de ejecutar únicamente
las tareas para las cuales fue exactamente programada y nada más.
El programa MYCIN
La especialización de en cualquier actividad requiere un gran conocimiento de
asociado. El proceso para poder practicar una cierta actividad depende de la
asimilación de esta conocimiento. Un conjunto de hechos constituyen una gran
parte del conocimiento basico sobre un tema, pero son igualmente importantes la
destreza que se puede adquirir con la experiencia, las ideas generales en algunos
casos acerca de lo que es una buena practica y el arte de tomar un decisión
acertada basándose en información incompleta. Esto resulta tan importante para el
aprendizaje de cualquier materia o para que el estudiante de cualquier ciencia
adquiera los aspectos sutiles del tema, como aprender las premisas básicas. En la
creación de un sistema experto hay una parte bastante inmediata de codificación de
los hechos conocidos sobre un tema; la parte mas difícil, conocida como
modelización de la maestría, consiste en la formulación y aplicación de reglas
extraídas de la experiencia que se posee en el tema. En cualquiera de los casos el
sistema esta constituido por una base de conocimientos que proporcionan los
hechos y un motor de inferencia para desarrollar las deducciones lógicas y tomar
decisiones (algunas veces acompañadas de un porcentaje de probabilidad acerca de
la corrección de las deducciones ), basadas en los hechos y reglas conocidas.
El programa MYCIN publicado por E. Schortcliffe en 1976 es un sistema que
diagnostica enfermedades infecciosas, en particular infecciones sanguíneas. MYCIN
lo usan médicos en practicas para obtener ayuda en sus diagnósticos, a su vez el
sistema se actualiza con los hechos y reglas de inferencia que proporsionan los
especialistas.
El programa DENDRAL
DENDRAL es un programa experto de análisis químico y se ha aplicado con mucho
éxito en muchos lugares del mundo. DENDRAL soluciona un problema de ingenieria
química en tres fases. En primer lugar, el programa infiere cualquier posible
restricción sobre la solución basándose en el conocimiento que posee en su base de
datos. A continuación permite a los usuarios añadir cualquier otro tipo de
restricción y finalmente genera y comprueba una lista de posibles soluciones, que
imprime en orden de preferencia. DENDRAL se escribió originalmente en LIPS, pero
ha sido reprogramado para ser usado en varias maquinas diferentes de entre las
que se destaca la implementación realizada sobre un PDP-10 en Edimburgo. Este
programa basado en la estrategia de "planificar, generar y comprobar" se usa en
las universidades y en las industrias de Estados Unidos y en Europa y representa
una de las aplicaciones practicas de la IA que mas éxito ha conseguido de entre las
desarrolladas hasta la fecha.
http://www5.gratisweb.com/comarsc/inar4.htm
INTRODUCCIÓN
El término "inteligencia artificial" (abreviado IA) se ha popularizado para designar a
una disciplina incluida entre las ciencias de la computación. Tiene que ver con el
esfuerzo que decenas de científicos de distintos países, especialmente de los
Estados Unidos y de Europa Occidental, han venido realizando durante los últimos
treinta años para dotar a las computadoras de inteligencia. La frase "dotar a las
computadoras de inteligencia" suele producir una reacción de asombro en muchas
personas, aunque a veces por motivos diferentes: "Pero, es que las computadoras
no son inteligentes?", comentarán algunos que han visto o leído demasiadas
historias de ciencia ficción. Claro que no, habrá que contestarlos, refiriéndonos al
hecho de que la computadora ordinariamente programada no es más que un
instrumento muy rápido y generalmente confiable de hacer operaciones aritméticas
o de manipular fichas de nombres en orden alfabético (o de ponerlas en tal orden).
Para que una computadora comience a merecer el nombre de inteligente, deberá
ser capaz de realizar acciones que, si realizadas por un ser humano, diríamos que
requieren inteligencia, como jugar ajedrez o mantener un diálogo con otro ser
considerado también inteligente, o resolver algún rompecabezas. Pero para otras
personas la fuente del estupor al ver asociadas las palabras "inteligencia" y
"artificial" consistirá en el hecho de que para ellas la inteligencia y las máquinas son
conceptos esencialmente incompatibles: "Las computadoras pueden hacer
operaciones aritméticas porque para eso sólo se necesita ser capaz de manipular
números en forma mecánica; pero la inteligencia, a diferencia de la capacidad de
manipular números, requiere creatividad, inventiva, iniciativa intelectual, y eso
desde luego solo lo pueden tener los seres humanos, de ninguna manera las
máquinas. Las computadoras pueden hacer lo que sus programadores les dicen,
pero nada más; además, hagan lo que hagan, nunca sabrán lo que están haciendo,
nunca serán conscientes de lo que hacen. Y para ser inteligente se requiere ser
capaz de elegir conscientemente el propio camino en la solución de problemas". La
contestación que podemos darle a esta segunda clase de personas es más
compleja.
LENGUAJES DE PROGRAMACIÓN
Debemos comenzar por aclarar que las computadoras no son simplemente
manipuladoras de números; la idea de que lo son se debe a que inicialmente fueron
diseñadas y construidas por ingenieros que deseaban ponerlas a realizar esa clase
de operaciones. Pero en realidad la computadora manipula cualquier clase de
información, numérica o no numérica; en general, la computadora es una
manipuladora de símbolos. Por otra parte, debemos aclarar también que hay
diversas formas de programar una computadora; cuando se dice que una
computadora sólo puede hacer lo que su programador le ha especificado que haga,
esto es cierto solamente para el caso de cierto tipo de programación, la más común
de todas, la que se hace corrientemente en lenguajes como el COBOL o el BASIC o
el FORTRAN en aplicaciones ordinarias.
Uno de los profetas de la IA, Marvin Minsky, ha clasificado los lenguajes de
programación, para aclarar este asunto, en varios clases:
• lenguajes "haga ahora": el programador instruye a la computadora para
"hacer esto, hacer lo otro, hacer lo de más allá hasta que tal cosa pase";
todo queda especificado, excepto tal vez el número de veces que se hace
cada cosa;
• lenguajes "haga siempre que": permiten escribir un programa para
resolver problemas que el programador no sabe como resolver (pero sabe
qué cosas pueden intentarse, y que eventualmente alguna de ellas resultará
efectiva);
• lenguajes "de constreñimiento": permiten escribir programas en que se
definen estructuras y estados que se condicionan y limitan recíprocamente.
Los dos últimos tipos de lenguaje permiten programar de tal manera que no es
correcto decir que el programador sabe como va a actuar la computadora que
ejecute el programa. El lenguaje del tipo "haga siempre que" se conoce como
"sistema de producción" y está en la base de la mayor parte de los programas
expertos de que trataremos más adelante; los lenguajes "de constreñimiento" son
lenguajes manipuladores de símbolos de carácter funcional o relacional: los más
conocidos son LISP y Prolog, en los cuales se escriben hoy la mayor parte de los
programas de IA de tipo general. Para Minsky no hay duda de que los programas
escritos en los últimos dos tipos de lenguaje exhiben algún grado de inventiva y por
ende de inteligencia; pero admite que todavía será necesario desarrollar por lo
menos dos tipos más elevados de lenguaje para obtener una IA comparable a la
inteligencia humana:
• lenguajes "haga algo que tenga sentido" : permiten al programa
aprender del pasado y en cada nueva situación aplicar sus enseñanzas, y
• lenguajes "mejórese a sí mismo": algún día permitirán escribir
programas que escriban programas mejores que ellos mismos.
Por supuesto que en estos dos casos tampoco será justo decir que el programador
ponga en el programa todo lo que la computadora llega a hacer.
CREATIVIDAD
El tema que estamos tratando tiene desde luego mucho que ver con el concepto de
lo que es creación, o creatividad, en las acciones del ser humano, o de la
computadora. Por lo general planteamos el problema de la creatividad citando las
grandes obras de arte o de genio científico; pero la verdad es que la mayor parte
de las obras humanas ordinarias exhiben un gran contenido de creatividad:
creatividad consiste en ser capaz de combinar los elementos a nuestra disposición
para dar una solución, eficiente (o bella, o sagaz) a un problema con que nos
enfrentamos. Al hablar de IA es equitativo que comparemos a la computadora con
esa habilidad ordinaria, dejando para mejor y futura oportunidad la cuestión de si
puede llegar a haber "genio artificial".
A primera vista, la creatividad es algo que no podemos explicar, resultado de un
don especial; sin embargo, observando con más cuidado podemos llegar a concluir
que todo lo que no entendemos, lo que no hemos explicado todavía, parece así de
misterioso. Decir que una máquina no puede llegar a exhibir creatividad tiene
sentido en la medida en que sepamos con claridad qué es esa creatividad, en qué
consiste: entonces podremos mostrar porqué su naturaleza está reñida con todo
mecanismo; pero el caso es que llamamos creatividad precisamente a aquello que
en nuestro comportamiento todavía no hemos podido explicar; por ejemplo, no
llamamos creatividad, al don de resolver ecuaciones de segundo grado, ¡porque ya
lo exhiben las computadoras! No solo no está bien, con base en nuestra ignorancia
de lo que sea creatividad, negarle a la computadora la posibilidad de llegar a
tenerla, sino que debemos estar agradecidos a la investigación en IA por la
oportunidad de llegar a entender qué es creatividad. En efecto, pareciera que el
trabajo en IA está comenzando a hacer posible encontrar una explicación
satisfactoria a los fenómenos de la creatividad: en la misma medida en que, poco a
poco, logramos escribir programas que exhiben propiedad, en esa misma medida
empezamos a explicamos qué es la creatividad –se dé ella en la máquina o en el
ser humano–.
AUTOCONCIENCIA
La otra propiedad que se espera ver asociada a la inteligencia, porque lo está a la
humana, es la autoconciencia; no se concibe que una máquina piense puesto
que,"evidentemente no se da cuenta de lo que hace". En esta cuestión podemos
argumentar en dos sentidos diferentes, de acuerdo con los resultados de la
investigación psicológica y de la investigación en IA. Por una parte, es un hecho
que el pensamiento humano realiza gran cantidad de funciones que no podemos,
en ningún sentido importante de la palabra, calificar de conscientes; más aún,
parece bien establecido que la autoconciencia contribuye en la mayor parte de las
situaciones a impedir el proceso mental eficiente (por ejemplo, si trato de darme
cuenta de dónde pongo los dedos cuando tecleo en el piano o en la computadora, o
cuáles movimientos hago para conducir un coche, o en qué tono de voz estoy
hablando). Pero por otro lado, es bastante obvio que tener conocimiento sobre sí
mismo, sobre nuestras propias capacidades y limitaciones por ejemplo, es una
ayuda invaluable para el funcionamiento de la inteligencia. Ese tipo de
autoconciencia parece necesario o por lo menos conveniente como un complemento
de la inteligencia; de hecho, muchos programas de IA tienen en algún grado
conocimiento de sí mismos, y no parece que haya nada de especialmente difícil en
ello: al igual que conocen (tienen información) sobre los datos del problema, sobre
su contexto o condicionamientos de circunstancia, tienen –o pueden tener–
conocimiento sobre los recursos de que dispone el programa, sobre las funciones
que en cada momento pueden aplicarse, etc. En realidad, una de las contribuciones
más notables que la IA ha dado a la epistemología es el hallazgo de que a pesar de
que hay muchos niveles de conocimiento (por ejemplo, conocimiento del mundo,
conocimiento de ese conocimiento, conocimiento de las reglas que me permiten
conocer, etc) todos ellos pueden representarse uniformemente en la memoria de
una computadora y manipularse mediante los mismos procedimientos o
procedimientos parecidos. Así pues, y en resumen: en un cierto sentido la
autoconciencia no es importante para la inteligencia (la inteligencia no tiene que
estar observando su funcionamiento para poder funcionar); pero en otro sentido sí
lo es: conocer las propias capacidades y limitaciones es importante para el
comportamiento inteligente tanto de la máquina como del ser humano.
COMPLEJIDAD
Es imposible plantear el tema de la inteligencia, artificial o natural, sin mencionar la
cuestión de la complejidad. Las acciones inteligentes, estamos seguros hoy de ello,
son el resultado de la concurrencia de muchísimos elementos estructurados de una
manera tan compleja como pueda imaginarse; esto es también, con seguridad, una
de las más valiosas lecciones que hemos aprendido tratando de emular en la
máquina los fenómenos intelectuales humanos. No siempre se tuvo este concepto,
sin embargo; para no abundar en reminiscencias filosóficas, para el pensador
griego Platón era claro que la parte racional del ser humano, llamada también
alma, tenía que ser absolutamente simple (de esa simplicidad sacaba argumento
para pensar que el alma era inmortal, puesto que todo lo que muere, perece por
descomposición de sus elementos). Otros pensadores, como Descartes, llegaron a
encontrar la substancia no extensa o espiritual por introspección: al descubrirse en
el acto simple de pensar, "pienso, luego existo". Tal concepción, por más poco
fundamentada empíricamente que estuviera, tenía la virtud de ofrecer una base
muy sencilla para dividir al mundo en dos órdenes: el material, donde reinaba la
complejidad, la composición y la descomposición, y el orden espiritual o intelectual
donde la conciencia, supuestamente simple, era el lugar inextenso donde residían
esas entidades etéreas llamadas ideas. Los seres humanos (o una parte de ellos, el
alma) eran inteligentes o racionales; todos los otros seres de este mundo no lo
eran. En ese planteamiento no había lugar para niveles, grados o tipos de
inteligencia, era una cosa de todo o nada (tanto que para explicar diferencias
individuales de capacidad intelectual se llegaron a postular impedimentos
materiales que reducían las capacidades innatas y originalmente iguales de las
almas). Volveremos en seguida sobre este tema.
INTELIGENCIA
Es muy difícil definir la inteligencia; ya hemos visto que hay resistencia a
equipararla con la capacidad de resolver problemas matemáticos (entonces
resultaría obvio que las máquinas sí pueden pensar, desde que Pascal y Leibniz, en
el Siglo XVII, inventaron máquinas de sumar y de multiplicar); aunque no siempre
fue esto así: para Platón y los pitagóricos, por ejemplo, el conocimiento de las
verdades matemáticas era la más grande prueba de racionalidad. Quién sabe qué
pensarían esos filósofos si pudieran estudiar los programas electrónicos que hoy
despejan ecuaciones, prueban teoremas lógicos y matemáticos o incluso descubren
nuevos conceptos matemáticos a partir de otros ya conocidos (por ejemplo,
descubren los números primos a partir de los conceptos básicos de la teoría de
conjuntos, sin tener ninguna idea previa sobre eso que llamamos número).
Pero volviendo a la posibilidad de definir la inteligencia, creo –siguiendo a John
McCarthy NOTA 1–, que una buena aproximación podría ser la siguiente: Capacidad
que tiene (por lo menos) el ser humano de adaptarse eficazmente al cambio de
circunstancias mediante el uso de información sobre esos cambios. Esta definición
tiene la virtud de explicar por qué tanta gente reaccionó muy negativamente ante
intentos de filósofos de los siglos XVIII y XIX de explicar los fenómenos mentales
dentro del paradigma mecanicista propio de la física de Newton; para ellos la
máquina más típica, a pesar de estar en desarrollo la Revolución Industrial, seguía
siendo el molino de viento o, tal vez más universalmente, el reloj; por ejemplo el
de la gran catedral, a veces capaz de dar vida momentánea a una constelación de
figuras humanas o fantásticas que colaboraban para dar las horas participando en
una secuencia de movimientos preestablecidos. Y, claramente, el reloj, aún el más
elaborado de la catedral medieval, era incapaz de variar su comportamiento de
acuerdo con el cambio de circunstancias del ambiente (por ejemplo, ninguno de
esos muñequitos que desfilaban en lo alto de la fachada de una catedral sacaba su
paraguas si llovía).
Algunas personas pensarán, sin embargo, que la definición es muy amplia, pues de
acuerdo con ella el sistema inmunológico del cuerpo humano (o animal) resultará
inteligente: también él logra adaptaciones eficaces usando para ello información.
Pero el asunto importante aquí es que precisamente la inteligencia hasta ahora ha
sido un fenómeno que se ha dado en seres vivientes, y resulta completamente
natural que podamos distinguir una continuidad entre ciertas reacciones biológicas
de un nivel relativamente bajo y las reacciones más elaboradas de la corteza
cerebral; tal continuidad no solo es de esperar, sino que parece totalmente
necesaria para el que se coloque en la posición en que nosotros nos colocamos de
considerar los fenómenos intelectuales como fenómenos sumamente complejos. La
complejidad, por hipótesis, admite grados; así, si la inteligencia es obra de la
complejidad, habrá toda clase de niveles de inteligencia, desde la más elemental
hasta la más elaborada, dependiendo del grado de complejidad del organismo,
máquina o programa considerados.
Decíamos que fue natural reaccionar contra la identificación de inteligencia y
máquina cuando el prototipo de la máquina era el reloj medieval (el reloj de de
pulsera contemporáneo, digitalizado y con alarmas que pueden ponerse a voluntad
sería un caso menos claro). Sin embargo, los hombres y mujeres del siglo XIX ya
tenían un tipo diferente de máquinas entre ellos que era capaz de reaccionar ante
el cambio de circunstancias de una manera muy flexible y eficiente, es decir, muy
adaptativa. Me refiero a un dispositivo esencial para el funcionamiento de las
locomotoras a vapor, tan ligadas al desarrollo de la Revolución Industrial: el
gobernador, un mecanismo consistente en dos varillas abisagradas terminadas en
sendas esferas de mayor peso; dicho mecanismo lograba mantener constante la
velocidad de la locomotora haciendo uso de la fuerza centrífuga para cerrar la
entrada de combustible que calentaba la caldera. Este es uno de los primeros
casos, si no el primero, de un aparato autorregulado, basado en el fenómeno
conocido como retroalimentación. Parte de la energía de la caldera, una
pequeñísima parte, tanto que podemos ya llamarla información en vez de energía,
se desvía para poner en movimiento el gobernador, el cual al moverse
circularmente hace subir las varillas por fuerza centrífuga y consecuentemente
cierra la válvula que da entrada al combustible, todo en proporción a la velocidad
de la locomotora. Decimos que la energía desviada retroalimenta la propia
máquina, para lograr controlarla, es decir, hacerla autorregulada. Un ejemplo más
moderno es el termostato, que desconecta un aparato de calefacción, o de aire
acondicionado, cuando la temperatura del cuarto coincide con la que se ha
establecido como condición de referencia. Pues bien, decir que la inteligencia puede
explicarse mecánicamente no resulta un enunciado tan escandaloso si lo que
tenemos presente como máquina no es el reloj, insensible al cambio de
circunstancias, sino el gobernador o el termostato, que obviamente están abiertos
al mundo y son capaz de adaptarse por lo menos a algunas de sus vicisitudes
posibles.
Se cuenta que una vez un oponente del concepto de la inteligencia artificial de John
McCarthy, el creador del lenguaje LISP, creyó arrinconar a su interlocutor con la
réplica: "Pero entonces, un termostato resultaría ser inteligente, según la definición
de inteligencia que usted está usando". McCarthy no tuvo ninguna dificultad en
aceptarlo. Y la verdad es que aceptar que un mecanismo elemental de
autorregulación es inteligente no solo es inofensivo, sino que también es
fundamental y necesario. Puesto que la definición de inteligencia como algo
mecánico y complejo implica que hay grados de inteligencia, y que la inteligencia
más elevada está compuesta de inteligencias menos elevadas que interactúan entre
sí. En último término, tendremos que llegar, por una cadena de explicaciones, hasta
el punto en que una inteligencia de nivel muy inferior, pero todavía compleja, se
resuelve en una constelación de ciclos de retroalimentación, parecidos al del
gobernador o al del termostato, debidamente integrados entre sí (por ejemplo que
se pasen señales unos a los otros). El nivel mínimo de mecanismo inteligente será
entonces un arco de retroalimentación; ello no quiere decir que el termostato sea
simple, ni que su inteligencia sea no-extensa; por el contrario, el ciclo de
retroalimentación tiene partes, debidamente relacionadas entre sí en el espacio;
pero ninguna de esas partes es inteligente, en el sentido de nuestra definición. Así
pues, el átomo de inteligencia es el arco de retroalimentación (arco reflejo), y es a
partir de el, por sucesivos niveles de complejización, que se construye toda otra
inteligencia. Como lo apuntábamos al comienzo, si la inteligencia es compleja, debe
admitir grados.
Tal vez una buena manera de ilustrar lo que queremos decir es citar una
interesante teoría sobre la naturaleza de la mente que debemos a Marvin Minsky;
se llama la teoría societal de la mente, y nos dice que cada mente humana es el
resultado de la acción de un comité de mentes de menor poder: sentadas alrededor
de una mesa (metafóricamente hablando), estas mentes conversan entre sí (se
pasan información) y combinando sus respectivas habilidades, que son diferentes,
son capaces de resolver problemas. Ahora bien, estas submentes deben ser, cada
una de ellas, explicadas a su vez de alguna manera; nada impide que las
expliquemos usando la misma teoría. Excepto en el momento en que quienes estén
sentados en estas mesas sean átomos de inteligencia, es decir, ciclos de
autorregulación elementales, como el arco reflejo, que podrán explicarse
mecánicamente de modo muy simple.
INTELIGENCIA ARTIFICIAL
CONCLUSIÓN
El contraste anotado nos lleva a una conclusión que queremos consignar aquí como
nota final de este artículo. Todo parece indicar que las computadoras, debidamente
programados con las técnicas de alto nivel propias de la IA, pueden descollar en el
campo de la pericia, es decir, de la solución de problemas especializados; por su
parte, el intelecto humano parece insustituible en relación con la solución de
problemas de sentido común. Se impone entonces fomentar la asociación de
hombre y máquina en sistemas de cooperación simbiótica y sinergética; hombre y
máquina se necesitan mutuamente para solucionar eficazmente los problemas, y de
la interacción entre ambos resulta una energía intelectual muy superior a la de la
suma de sus partes NOTA 2.
NOTA 1: (Comunicación personal). En cuanto a Minky, él no cree que sea
productivo definir la inteligencia. Le parece que mientras no sepamos cómo trabaja
el cerebro, el intento solo puede crear confusión (comunicación personal). Nota de
1999
NOTA 2: Ver mi artículo sobre la colaboración hombre-máquina (GUTIERREZ 87b),
complementado en GUTIERREZ & ARRIETA 91
http://www.psycologia.com/articulos/ar_claudio014.htm
http://www.fortunecity.com/skyscraper/romrow/207/se/Panorama.htm
Prefacio.:
El texto que aquí se presenta tiene como finalidad dar una visión ordenada de los
principales tópicos que comprenden el apasionante campo de la Inteligencia
Artificial y una de sus aplicaciones que más éxito han logrado en el campo práctico,
los Sistemas Basados en Conocimiento.
Los diferentes temas han sido desarrollados partiendo de los fundamentos de la
Inteligencia Artificial hacia la discusión de los problemas fundamentales y los
diferentes métodos y algoritmos de solución propios de la denominada Inteligencia
Artificial Débil. Luego de plantear los principales paradigmas de representación del
conocimiento se exponen los aspectos más importantes de los sistemas basados en
conocimiento, incluyendo los denominados sistemas expertos.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/prefacio.htm
El Nivel del Modelo de
Inteligencia
En primer lugar, un proyecto de IA, debe definir lo más exactamente posible, lo que
desea lograr:
• Desarrollar programas que realicen las tareas de la misma forma en que lo
realizan las personas.
• Desarrollar programas que simplemente realicen las tareas de la forma que
parezca más sencilla.
Los programas que se enmarcan en el primer caso, tratan de modelar el
comportamiento humano, para ejecutar las siguientes tareas:
• Probar teorías psicológicas del comportamiento humano.
• Capacitar a los computadores para entender el razonamiento humano.
• Capacitar a los humanos para que comprendan a los computadores.
• Explotar el conocimiento que es posible obtener de la gente.
En el segundo caso, están agrupados los programas de IA de índole más práctica,
que sin ser rigurosos en la modelación del comportamiento humano, tratan de
proporcionar soluciones aceptables.
Criterios de Evaluación en I. A.
Cada campo necesita criterios para evaluar el éxito alcanzado. En general, es muy
difícil determinar si una máquina o un sistema tiene inteligencia o puede pensar. Al
respecto se han sugerido algunas pruebas entre las que se destaca la de Alan
Turing (1912-1954). En 1950 ideó una prueba para reconocer comportamientos
inteligentes, esta prueba dice lo siguiente:
Si la ejecución de un sistema de IA puede convencernos
de que su comportamiento es el que tendría un humano,
entonces el sistema es verdaderamente inteligente.
En una forma más práctica, para saber si un trabajo de investigación en IA ha
tenido éxito, debe hacerse tres preguntas claves:
¿Está definida con claridad la tarea?
¿Existe un procedimiento ya instrumentado que efectúe la tarea? Si no existe, es
que deben haber muchas dificultades escondidas en algún lugar.
¿Existe un conjunto de regularidades o restricciones identificables a partir de las
cuales el procedimiento implantado obtiene su validez? De no ser así, el
procedimiento no pasaría de ser un juguete, tal vez capaz de un desempeño
superficial impresionante en ciertos ejemplos seleccionados con cuidado, pero
incapaz de impresionar con un desempeño profundo y de resolver problemas más
generales.
Para determinar si una aplicación de IA ha tenido éxito, deben plantearse preguntas
adicionales como las siguientes:
• ¿Resuelve la aplicación un problema real?
• ¿Crea la aplicación una nueva oportunidad?
Eventualmente, las respuestas a las preguntas planteadas, deberán ser
complementadas con pruebas típicas de verificación y validación de sistemas:
eficacia en el desempeño, eficiencia operativa, facilidad de uso, flexibilidad,
portabilidad, etc.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_23.htm
Preguntas Fundamentales de
la Inteligencia Artificial
1. ¿Cuales son las suposiciones subyacentes acerca de la inteligencia?
2. ¿Cuáles son las técnicas útiles para la resolución de problemas en IA?
3. ¿A qué nivel de detalle se trata de modelar la inteligencia humana?
4. ¿Cómo se puede saber que se ha tenido éxito en el desarrollo de un sistema
inteligente?
5.
La Hipótesis del Sistema Físico de Símbolos
Importancia De La Hipótesis
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_2.htm
Importancia de la Inteligencia
Artificial
Conforme el mundo se vuelve más complejo, debemos usar nuestros recursos
materiales y humanos con más eficiencia, y para lograrlo, se necesita la ayuda que
nos ofrecen los computadores.
Existe la falsa impresión de que uno de los objetivo del IA es sustituir a los
trabajadores humanos y ahorrar dinero. Pero en el mundo de los negocios, la
mayoría de personas está más entusiasmada ante las nuevas oportunidades que
ante el abatimiento de costos. Además, la tarea de reemplazar totalmente a un
trabajador humano abarca de lo difícil a lo imposible, ya que no se sabe cómo dotar
a los sistemas de IA de toda esa capacidad de percibir, razonar y actuar que tienen
las personas. Sin embargo, debido a que los humanos y los sistemas inteligentes
tienen habilidades que se complementan, podrían apoyarse y ejecutar acciones
conjuntas:
• En la agricultura, controlar plagas y manejar cultivos en forma más eficiente.
• En las fábricas, realizar montajes peligrosos y actividades tediosas (labores
de inspección y mantenimiento).
• En la medicina, ayudar a los médicos a hacer diagnósticos, supervisar la
condición de los pacientes, administrar tratamientos y preparar estudios
estadísticos.
• En el trabajo doméstico, brindar asesoría acerca de dietas, compras,
supervisión y gestión de consumo energético y seguridad del hogar.
• En las escuelas, apoyar la formación de los estudiantes, especialmente en
aquellas materias consideradas complejas.
• Ayudar a los expertos a resolver difíciles problemas de análisis o a diseñar
nuevos dispositivos.
• Aprender de los ejemplos para explorar bases de datos en busca de
regularidades explotables.
• Proporcionar respuestas a preguntas en lenguaje natural usando datos
estructurados y texto libre.
La IA aplicada es la contraparte de ingeniería de la ciencia cognoscitiva y
complementa sus perspectivas tradicionales. La ciencia cognoscitiva es una mezcla
de psicología, lingüística y filosofía.
La metodología y terminología de la IA está todavía en vías de desarrollo. La IA se
está dividiendo y encontrando otros campos relacionados: lógica, redes neuronales,
programación orientada a objetos, lenguajes formales, robótica, etc. Esto explica
por qué el estudio de IA no está confinado a la matemática, ciencias de la
computación, ingeniería (particularmente la electrónica y la mecánica), o a la
ciencia cognoscitiva, sino que cada una de estas disciplinas es un potencial
contribuyente. La robótica es considerada como un campo interdisciplinario que
combina conceptos y técnicas de IA, con ingeniería óptica, electrónica y mecánica.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_3.html
Existen tres paradigmas que los investigadores han utilizado tradicionalmente para
la resolución de problemas de IA:
Programación Heurística.- Está basado en el modelo de comportamiento
humano y su estilo para resolver problemas complejos. Existen diversos tipos de
programas que incluyen algoritmos heurísticos. Varios de ellos son capaces de
aprender de su experiencia.
Redes Neuronales Artificiales.- Es una representación abstraída del modelo
neuronal del cerebro humano. Las redes están formadas por un gran número de
elementos simples y por sus interconexiones. Una red neuronal artificial puede ser
simulada o ser real. Al elemento procesador de la red, se lo denomina neurona
artificial.
Evolución Artificial.- Su modelo está basado en el proceso genético de evolución
natural, propuesto por Charles Darwin. Se utilizan sistemas simulados en
computador que evolucionan mediante operaciones de reproducción, mutación y
cruce (Algoritmos Genéticos).
Cada paradigma comprende una colección de métodos, configuraciones y técnicas
desarrolladas para manipular el conocimiento. En general, una técnica de IA está
caracterizada por incluir los siguientes componentes:
Procesos de Búsqueda.- Proporciona una forma de resolver problemas para los
cuales no hay un método más directo, así como también se constituye en un marco
de trabajo dentro del cual cualquier técnica directa puede ser incorporada.
Uso del Conocimiento.- Proporciona una forma de resolver problemas explotando
las estructuras de los objetos involucrados.
Abstracción.- Proporciona una forma de separar rasgos importantes y variaciones,
de los tantos que no tienen importancia.
La manipulación del conocimiento involucra además la selección de objetos,
entidades y rasgos que son claves para las representaciones. Al nivel más bajo de
representación del conocimiento, estas entidades pueden consistir de simples datos
de entrada, por ejemplo: grabaciones cuantizadas y digitalizadas de audio, datos de
una imagen, valores captados por un sensor, información de interruptores o hechos
elementales. Estos bloques constructivos de la representación se los denomina
comúnmente primitivas. La representación escogida para las primitivas, puede
determinar las capacidades del sistema, el éxito, la corrección y sus posibilidades
de expansión.
En lo sucesivo, este curso se centrará en el estudio de las aplicaciones de la
programación heurística, para el desarrollo de sistemas de IA.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_22.html
Problemas y Técnicas en
Inteligencia Artificial
Desde el punto de vista de ingeniería, la mayor parte del trabajo requerido para
construir sistemas de IA, está basado en el desarrollo de adecuadas
representaciones de conocimiento y sus correspondientes estrategias de
manipulación. No se puede manipular conocimiento a menos que esté
adecuadamente representado. En consecuencia, las siguientes tres preguntas
claves pueden guiarnos en el estudio de la IA.
• ¿Qué es el conocimiento?
• ¿Cómo se puede representar el conocimiento?
• ¿Cómo se podría manipular el conocimiento?
Conocimiento
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_21.html
Definiciones de Inteligencia
Artificial
Una buena definición de IA es algo elusiva y controversial, fundamentalmente
porque la inteligencia humana no está completamente entendida. Cada libro de
texto en IA propone una definición que enfatiza las diferentes perspectivas que,
cada autor cree, encierra el campo. A continuación se transcriben algunas de ellas:
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_1.html
Aprendizaje:
• Captación automática de conocimientos.
Razonamiento:
• Sistemas basados en conocimientos.
• Bases de datos inteligentes.
• Prueba de teoremas y juegos.
Percepción:
• Comprensión de lenguaje natural.
• Interpretación de escenas visuales (Visión por computadora).
Locomoción y Manipulación:
• Realizar procesos mecánicos y tareas manuales (Robótica).
Creación:
• Generación, verificación, depuración y optimización automática de
programas.
Algunas de las tareas que estos sistemas realizan en el campo de la IA son:
Tareas generales
• Percepción: Visión, Fonemas.
• Lenguaje Natural: Comprensión, generación y traducción.
• Razonamiento de sentido común.
• Control de robots.
Tareas formales
• Juegos: Ajedrez, Backgammon, Damas.
• Matemáticas: Geometría, Lógica, Cálculo Integral.
Tareas expertas
• Ingeniería: Diseño, Localización de fallas, Planeamiento.
• Análisis Científico.
• Diagnóstico Médico.
• Análisis Financiero.
http://iwia.sis.epn.edu.ec/~hbanda/heuristica/pagina1_i.ht
ml
Durante muchos años las publicaciones para profesionales y para adicionados han
puesto cada vez mas énfasis en temas como la quinta generación, la inteligencia
artificial y los sistemas expertos y en pocos conocidos lenguajes como LIPS y
PROLOG. La IA es una de las ramas de la informática que ha sido capaz de cumplir
con muchas de las esperanzas y las predicciones iniciales.
La posibilidad de construir una maquina que pueda rivalizar o superar la capacidad
de razonamiento del cerebro humano ha atraído durante muchos años la
imaginación del hombre.
No existe una definición para la IA que tenga aun aceptación general lo cual no es
de extrañar ya que tampoco ha existido nunca una definición universalmente
aceptada de la inteligencia humana. La mayor parte de la controversia actual
acerca de lo que constituye y de lo que no constituye una evidencia de (inteligencia
artificial) en una maquina podría compararse con la preocupación de los filósofos
medievales acerca del numero exacto de ángeles que ocuparían la cabeza de un
alfiler.
Lo que si podemos afirmar es que ciertas técnicas y sistemas en el campo de la
informática son reconocidos como facetas de la IA. En términos muy generales,
dichas técnicas consisten en lograr que un computadora haga algo que si lo
realizase un ser humano se considerara como inteligente. Debemos destacar los
puros calculo numéricos y la ejecución de las tareas rutinarias y considerar solo las
acciones que parezcan conllevar algún aspecto del poder del razonamiento humano
tales como la capacidad de abstracción, generalización, inventiva y por supuesto la
capacidad de recordar.
Sin embargo, cuando la computación empezó a surgir como una ciencia, se
empezaron a dar cuenta de que los robots podía realizar tareas mucho más
complejas de lo que ellos imaginaban; se interesaron en el concepto del
"razonamiento Humano"; Comenzó por desarrollar algoritmos capaces de resolver
problemas específicos, se interesó en aplicar la Lógica Matemática en la resolución
de dichos problemas.
De esta manera podemos ver que el entendimiento de algún lenguaje natural,
reconocimiento de imágenes, encontrar la mejor manera de resolver un problema
de matemáticas, encontrar la ruta óptima para llegar a una objetivo específico,
etc., son parte del razonamiento humano, y que hasta ahora el hombre ha deseado
poder imitarla desarrollando la Inteligencia Artificial.
Se requiere que un robot "piense" y tome una decisión entre dos o mas opciones,
es entonces cuando principalmente se aplica a los ordenadores, ya sean PC’s ,
servidores de red o terminales de red, ya que su principal aplicación es desarrollar
programas computacionales que resuelvan problemas que implican la interacción
entre la máquina y el hombre, es decir, las máquinas "aprenderán" de los hombres,
para realizar mejor su labor.
http://www5.gratisweb.com/comarsc/inar2.htm
http://www5.gratisweb.com/comarsc/inar3.htm
Está claro que un ordenador electrónico es capaz de realizar sumas, restas y otras muchas
operaciones mecanizables y reiterativas (algorítmicas) con una rapidez mucho mayor que la del
hombre mismo. Pero esto no significa que sea especialmente inteligente, pues hay que
reconocer que ninguna de estas operaciones repetitivas precisa del ejercicio de capacidades
intelectivas superiores, ya que es posible construir maquinas capaces de realizarlas
compuestas únicamente por ruedas dentadas y dispositivos similares.
En este caso, ¿cuándo podrá hablarse con estricta justicia de inteligencia artificial?. La
contestación a esta pregunta no es nada fácil. Uno de los pioneros de la investigación teórica
en el campo de los ordenadores, el matemático británico Alan Mathison Turing (1912-1954)
propuso en 1947 un criterio (llamado en su honor "la prueba de Turing") que permitiría decidir
cuando una máquina podría considerarse por fin inteligente.
La prueba de Turing nos presenta la siguiente situación: dos contertulios de un investigador son
un ser humano y un ordenador que trata de pasar por un humano. El investigador y sus
interlocutores se encuentran en salas separadas y dialogan mediante terminales de
computadora. ¿Podrá la maquina engañarle? Según Turing, podemos hablar de inteligencia
artificial, y se podrá decir que la maquina piensa, cuando el interrogador sea capaz de distinguir
cual es la estación terminal conectada a un ser humano y cual es la conectada a una
computadora después de un numero razonable de preguntas y respuestas.
Hasta ahora, a pesar de los años transcurridos desde que Turing formuló su famosa prueba,
ninguna máquina ha sido capaz ni siquiera de aproximarse a cumplirla.
No es difícil descubrir, tras un breve dialogo que estamos hablando con un ser humano.
Estrictamente, por tanto, no se puede decir que la inteligencia artificial se halla conseguido
nunca, pero si que ha habido diversos intentos de lograrla que pueden catalogarse bajo ese
nombre si aplicamos al termino una definición más amplia y menos restrictiva.
Velocidad de transmisión
Uno de los primeros programas de ajedrez fue el llamado Hitech, creado por Hans Breliner, el
que domino el campo durante los años ochenta y alcanzo una clasificación de 2400 puntos en
el sistema de clasificación internacional, pero fue a su vez superado por Deep Thought,
desarrollado por un grupo de estudiantes de la Universidad Carnegie-Mellon que en 1990
rebasa los 2600 puntos, lo que le convierte en el primer ordenador, que alcanza la categoría de
gran maestro internacional de ajedrez. Como punto de comparación, un campeón mundial
suele estar situado por encima de los 2700 puntos.
En mayo de 1997, la computadora Deep Blue superó al campeón mundial del ajedrez Garry
Kasparov.
Deep Blue es una supercomputadora que puede analizar 200 millones de jugadas por segundo,
pesa 600 kilos y tiene 64 microprocesadores. En una posición determinada, Deep Blue
visualiza todas las estrategias posibles y las posiciones que se van derivando hasta un alcance
de 24 movidas.
El debate entre Kasparov y Deep Blue es una episodio más en el tradicional enfrentamiento de
dos formas distintas de pensamiento.
DESARROLLO HISTÓRICO DE LA I. A.
El termino "inteligencia artificial" fue propuesto por primera vez por John McCarthy, con ocasión
de una conferencia internacional de informática celebrada en el Dartmouth College de Hanover
(E.E.U.U) en 1956. Inicialmente se aplicó el nombre a todas aquellas ramas de informática que
parecían relacionada con la emulación de las actividades mentales superiores del hombre
¿cuáles serán estas?.
Esencialmente, las siguientes: demostración automática de teoremas matemáticas;
comprensión por las maquinas del lenguaje humano hablado y escrito; programas capaces de
aprender de su propia experiencia; y los que pueden jugar con decoro a los llamados "juegos
inteligentes": las damas y el ajedrez.
Juegos inteligentes
Por aquellas fechas y a pesar que los ordenadores electrónicos tenían a sus espaldas una
historia muy corta y aun se encontraban en la primera generación, se habían conseguido ya
algunos logros notables en estos campos. En 1956 el norteamericano Herbert Gelernter, del
laboratorio de IBM en Poughkeepsee (Nueva York), había construido uno de los primeros
casos auténticos de inteligencia artificial: un programa que podía resolver teoremas sencillos de
geometría plana. En ese mismo año Arthur Samuel construyo otro capaz de jugar a las damas,
que además guardaba información sobre las partidas jugadas y la utilizaba para evitar cometer
los mismos errores en partidas posteriores. Hasta cierto punto, por lo tanto, se podía decir que
el programa "aprendía". Y lo hizo tan bien que, en unos pocos años, jugaba razonablemente
bien, ganaba sistemáticamente a su propio autor y desempeñaba un papel decoroso en los
campeonatos oficiales.
Las damas fue el primer juego inteligente abordado por los programadores porque es
relativamente sencillo, comparado con el ajedrez (solo existen dos tipos de piezas y el numero
de casillas aprovechables en un tablero de ocho por ocho es igual a treinta y dos). Desde el
primer momento, sin embargo, se comprendió que el ajedrez iba a ser un hueso más duro de
roer: son seis tipos diferentes de piezas, los movimientos son mucho más complejos y hay
sesenta y cuatro casillas accesibles, lo que multiplica considerablemente el numero de jugadas
posibles en cada momento y, por ende, la complicación del juego. Sin embargo, más o menos
por la fecha del congreso internacional en que se bautizó la inteligencia artificial, ya se había
dado el primer paso para vencer todas las dificultades: Alex Bernstein, de la Divison de
Ciencias Aplicadas de IBM, había sido el primero en construir un programa capaz de jugar al
ajedrez al nivel de un principiante, cuya aparición fue profusamente aireada por la prensa
especializada.
Como consecuencia de estos avances, aparentemente arrolladores, los participantes en el
congreso formularon predicciones extraordinariamente optimistas. "En diez años – decían -
tendremos programas capaces de ganar sistemáticamente al campeón del mundo del ajedrez.
Podremos hacer, gracias a los ordenadores, traducciones automáticas perfectas, entre dos
lenguas humanas cuales quiera. Y eso será sólo el principio: los avances se aceleraran
progresivamente y pronto podrá resolverse de forma satisfactoria el viejo sueño de la ciencia-
ficción: la construcción de hombres artificiales, robots humanoides, o como se les quiera
llamar."
Pero las cosas no salieron como estos optimistas preveían. En 1968, tras diez años de
esfuerzos constantes, los programas que jugaban al ajedrez seguían al nivel de un principianta
y las traducciones automáticas entre lenguas humanas eran dignas de risa.
Traducción automática
Hay una famosa anécdota, posiblemente apócrifa, que cuenta como se construyeron por
aquella época dos programas traductores, el primero de los cuales vertía los textos del ingles al
ruso, mientras el segundo realizaba la traducción opuesta. Para probarlos, se proporciono al
primero el texto bíblico siguiente: "The espirit is ready, but the flesh is weak" ("el espíritu esta
pronto, pero la carne es débil"). La versión rusa obtenida volvió a verterse al ingles, gracias al
segundo programa traductor, obteniéndose al final de este viaje en dos direcciones el texto
siguiente: "The vodka is good, but the meat is spoiled" ("el vodka es bueno, pero la carne esta
estropeada"). Naturalmente, todo gira alrededor del doble sentido de algunas palabras: spirit,
que en ingles significa a la vez "espíritu" y "bebida alcohólica", flesh, que posee los dos
sentidos de su equivalente español "carne" (alimento y cuerpo), weak, que puede significar
débil de fuerzas o débil de calidad. Como se aprecia fácilmente, cualquier parecido de la
traducción con el original era pura coincidencia. El ejemplo, sin embargo, deja muy claras las
dificultades reales del problema, que proceden de que las lenguas humanas son intrínseca y
esencialmente ambiguas, y esto hace muy difícil interpretarlas correctamente sin un
conocimiento previo muy amplio sobre el mundo, conocimiento del que los ordenadores
carecen.
La consecuencia de este fracaso en las predicciones de los avances de la inteligencia artificial
fue la práctica detención de las investigaciones en todos estos campos durante casi una
década. La disciplina fue abandonada por los principales centros de investigación informática y
quedó relegada a unos pocos departamentos universitarios más o menos perdidos. Sin
embargo, sin demasiada publicidad, comenzaron a surgir nuevas investigaciones que sólo
mucho más tarde pasaron a considerarse parcelas propias de la inteligencia artificial. Estos
campos nuevos fueron, esencialmente, dos: la visión de las máquinas y los sistemas expertos.
Redes neuronales
Paralelamente a todo esto, otra línea de investigación, que acabó por considerarse también
parte de la inteligencia artificial, y que también hundía sus raíces en los años cincuenta, había
pasado por vicisitudes muy semejantes a los campos clásicos. Su objetivo era la construcción
de máquinas distintas de los ordenadores electrónicos que deberían alcanzar comportamientos
más o menos inteligentes por métodos más semejantes a los que utilizamos los seres
humanos. Y puesto que nuestro cerebro está formado por neuronas, se intento construir una
neurona electrónica que simulara el comportamiento de las células nerviosas. Se creía que
estas neuronas artificiales, conectadas entre si, podrían llegar a pensar.
Las maquinas en cuestión, llamadas perceptrones, estaban constituidas por dos capas de
neuronas simuladas, cada una de las cuales se conectaba con las de su misma capa y las de
la siguiente, pero no con las de la anterior. El problema era que la construcción real de los
perceptrones presentaba dificultades, pues cada neurona requería un circuito complejo y el
numero de neuronas necesario era muy grande.
En consecuencia, se recurrió a simular estos dispositivos en ordenadores electrónicos
ordinarios, lo que resultaba mucho más barato y, por lo tanto, factible, pero también
considerablemente más lento. Se creía por entonces que a medida que los ordenadores fueran
más rápidos, se podrían simular circuitos de perceptrones más complicados, que tal vez
acabaran por pensar.
Uno de los primeros problemas que se trato de resolver con perceptrones fue la construcción
de una retina artificial que actuara frente a la luz de una forma parecida a la de nuestros ojos,
que realizan un procesamiento notable de la información visual antes de enviarla al cerebro.
Desgraciadamente, en 1965 los norteamericanos Marvin Minsky y Seimour Papert demostraron
teóricamente que los circuitos con perceptrones jamas serán capaces de resolver ciertos
problemas muy sencillos. Como consecuencia de esto, la investigación en esta rama
desapareció casi por completo durante muchos años.
Sistemas expertos
A finales de los años setenta, la inteligencia artificial revivió, saliendo del marasmo en que
había caído. La causa remota fue el avance logrado en esos años por los nuevos sistemas
expertos, el primero de los cuales (Dendral) fue diseñado en 1965 por los norteamericanos
Edward A. Feigenbaum y Joshua Lederberg, que utilizaron un camino diferente y original. Su
objetivo era construir un programa que fuera capaz de obtener la formula de ciertos
compuestos orgánicos, realizando deducciones inteligentes a partir de los datos del análisis
químico. Después de bastantes años de trabajo, el programa Dendral llego a convertirse en un
verdadero sistema experto en la estructura de las moléculas químicas.
Pero la causa inmediata del resurgir de la inteligencia artificial fue el lanzamiento, por el
gobierno de Japón, del proyecto de la quinta generación de ordenadores, que comenzó
oficialmente en 1982, y que en diez años, al decir de sus diseñadores, debía obtener maquinas
totalmente nuevas, que utilizarán las técnicas de la inteligencia artificial y de los sistemas
expertos para conseguir un comportamiento inteligente y serian capaces de comunicarse con
los seres humanos en su propia lengua, realizando además traducciones prácticamente
perfectas entre idiomas tan diferentes como el ingles y el japonés.
Como se observara, el proyecto de la quinta generación era en el fondo una repetición de las
previsiones de 1958, con las que coincidía incluso en el plazo previsto para su cumplimiento.
Como en aquel caso, también estas previsiones fracasaron, aunque no totalmente, pues el
proyecto japonés asusto a los gobiernos norteamericano y europeos, que impulsaron proyectos
paralelos para impedir que Japón, en caso de tener éxito, se apoderara del comercio
informático mundial. El resultado de todos estos proyectos fue un conjunto de avances en
campos aislados que, aunque no se aproximaban a los objetivos previstos al principio, tampoco
eran despreciables. Fueron precisamente los campos nuevos, los de la visión artificial y los
sistemas expertos, junto con el procesamiento de textos en lenguas humanas y un nuevo
desarrollo de las redes neuronales, los que conocieron mayores avances, que hasta el
momento han impedido que la inteligencia artificial caiga de nuevo en una etapa de
investigación detenida.
Los campos en los que se divide hoy la investigación en inteligencia artificial son: demostración
automática de teoremas, juegos inteligentes, procesamientos del lenguaje natural, hablado y
escrito, visión de maquinas, sistemas expertos, redes neuronales artificiales. A primera vista
puede pensarse que esta disciplina no es más que un cajón de sastre, un revoltillo de
actividades que tienen poco en común, aparte del hecho que para nosotros, los seres
humanos, resultan simples, mientras que nos esta resultando muy difícil conseguir que las
maquinas las realicen. Y donde lo conseguimos, ya no nos parecen tan inteligentes y se alzan
voces que niegan que dichas aplicaciones deban seguir llamándose inteligencia artificial. Por
eso hay quienes definen, con ironía, la inteligencia artificial como la rama de la informática que
se ocupa de todo lo que todavía no sabemos hacer con un ordenador.
Definición de I.A.
¿De que manera podríamos definir la inteligencia artificial para que abarque de modo natural
todos los campos anteriores, aparentemente tan dispares? Bastara con fijarnos en que, en
todos los casos, la información que se procesa es de un tipo especial, muy diferente de la que
utilizan los programas clásicos de ordenador. En lugar de un procesamiento predominante
numérico, en todos estos casos se trabaja con información textual o simbólica. Por otra parte,
los métodos utilizados para procesar la información no se basan en teorías establecidas o en
algoritmos cuya eficacia se pueda demostrar o incluso deducir mediante procedimientos,
digámoslo así, matemáticos, sino que se apoyan casi exclusivamente en la experiencia (reglas
heurísticas). Por esta razón, la definición oficial de la inteligencia artificial puede expresarse con
las siguientes palabras: "La inteligencia artificial es el conjunto de técnicas utilizadas en un
ordenador que permite procesar información simbólica por medio de procedimientos heurísticos
".
Pasamos ahora a detallar algunos de los avances más importantes experimentados
recientemente en los distintos campos de la inteligencia artificial.
Entre los juegos inteligentes, dominadas ya las damas desde los años 60, el chaquete o
backgammon fue el segundo en caer, cuando el programa BKG 9.8, diseñado por el
norteamericano Hans Berliner, logro en 1979 vencer al entonces campeón mundial (el italiano
Luigi Villa). más o menos a partir de esta fecha aparecieron en las tiendas de aparatos
electrónicos unas maquinas capaces de jugar al ajedrez a nivel bastante aceptable, mejor que
el de la mayoría de la población. Sin embargo, no se puede hablar en este caso de inteligencia
artificial, pues, aprovechando la velocidad creciente de los microprocesadores que contienen,
se limitan a revisar un numero muy grande de posibilidades y a elegir la más prometedora, de
acuerdo con un sistema de puntuación de situaciones totalmente preprogramados.
Sin embargo, si ha habido avances en los programas de ordenador que aprenden de sus
errores, y algunos de ellos han logrado ascender muchos puestos en la calcificación mundial de
jugadores de ajedrez rebasando a muchos seres humanos.
En el campo de la visión de las maquinas, los avances más espectaculares se han conseguido
en la robótica, que se utiliza sobre todo para automatizar la fabricación, por medio de brazos
móviles (robot), capaces de obtener información visual sobre el entorno que les rodea (por
medio de cámaras de televisión) y de procesar dicha información para reconocer las piezas y
componentes que necesitan utilizar en la realización de las operaciones para las que han sido
programados.
Proyectos de defensa
SISTEMAS EXPERTOS
El problema del procesamiento del lenguaje natural puede dividirse en dos partes principales: el
del lenguaje hablado (procesamiento de voz) y el del lenguaje escrito (procesamiento de textos
en lenguaje natural); cada una de Las dos partes se divide, a su vez, en varios subproblemas
diferentes. Pero procedamos con orden.
Procesamiento de voz
El primero esta esencialmente resuelto: basta disponer de una base de datos de sonidos
silábicos (el numero de sílabas diferentes de una lengua hablada es relativamente pequeño
algunos centenares), y de algoritmos para variar su entonación y combinarlas entre si.
Ultimamente se ha hecho famoso el sistema generador de voz que utiliza el físico Stephen
Hawking para dar conferencias, dado que su enfermedad impide hablar audiblemente. En
cambio, la comprensión del lenguaje hablado es un problema más arduo, que normalmente se
aborda en dos etapas: en la primera, Las fases habladas se traducen al texto escrito.
La segunda (la interpretación de dicho texto) se reduce al problema de la compresión del
lenguaje escrito, que veremos más adelante.
Aun no se ha conseguido la traducción correcta por ordenador de frases habladas,
cualesquiera a texto escrito. Para poder abordar el problema se han introducido restricciones
que lo hacen más sencillo, especialmente algunas de Las siguientes:
- Restricción del texto hablado
- Restricción de la velocidad con que se habla
- Restricción de la persona que habla
Se utiliza la primera cuando lo que se desea interpretar es un subconjunto reducido del
lenguaje hablado. Por ejemplo: ordenes para el sistema operativo de la computadora. Existen
en el comercio varios programas y tarjetas de procesamiento de voz que permiten a cualquier
persona emitir dichas ordenes ante un microfono y ser obedecida. Ahora bien, si el texto
hablado es cualquiera (como ocurre en un sistema editado por ordenador), el número de
combinaciones es tan grande, y existen tantas diferencias de acento y pronunciación entre Las
personas, que es prácticamente imposible construir un programa capaz de entender todo lo
que hable cualquiera de ellas. Existen dos maneras de resolverlo: o se obliga al que habla a
separar las palabras (es decir, a hablar despacio) o se adapta el sistema de procesamiento de
voz a una persona concreta, mediante una etapa de aprendizaje.
Traducción automática
Lenguajes de programación
Como hemos visto, toda computadora digital trabaja internamente con señales eléctricas que
representan unos y ceros. Ellos forman un código binario que puede representar cualquier
número, letra o símbolo. Así se expresa el único lenguaje que es capaz de interpretar la
computadora y que se denomina LENGUAJE MAQUINA. Como variante del lenguaje máquina,
se emplea la escritura hexadecimal, que resulta más práctica porque los números así
representados tienen menos cantidad de cifras, con lo cual se escriben más rápidamente y se
cometen menos errores. También podemos ver, por ejemplo cuando mostramos un programa
EXE por pantalla, que el mismo está representado por varios símbolos en un código llamado
ASCCI. Allí se ha utilizado este código con el fin de abreviar la representación del programa,
pero internamente, es decir en la memoria, el programa se halla escrito en el lenguaje de unos
y ceros.
¿Qué entendemos por lenguaje en una computadora? Simplemente un conjunto de símbolos y
reglas utilizadas para intercambiar informaciones y comunicarnos con la computadora.
Se ha tratado de elaborar lenguajes de computación lo más parecidos posible al lenguaje
natural. Como los desarrollos de este tipo se realizan en los países de habla inglesa, los
lenguajes de computación tiene términos en inglés (por ejemplo el Pascal).
Por lo tanto, al construirse un nuevo lenguaje resulta imprescindible que, mediante algún
procedimiento automático, el mismo sea traducido al único lenguaje que conoce la
computadora, el lenguaje máquina.
Los lenguaje se clasifican en tres grandes grupos:
- LENGUAJE MAQUINA: ya lo mencionamos. La ventaja fundamental de los programas
escritos en este lenguaje es que resultan mucho más rápidos y requieren menos memoria que
los programas escritos en alto nivel.
- LENGUAJE DE BAJO NIVEL: el más conocido es el ASSEMBLER, que permite escribir un
programa utilizando instrucciones nemotécnicas, en lugar de binarias. Es de hacer notar que,
aprender a programar en bajo nivel requiere un mayor conocimiento de la estructura interna del
microprocesador y de su modo de operar.
- LENGUAJE DE ALTO NIVEL: Más cercanos al lenguaje oral (inglés) como el Basic, Pascal,
etc.
Lenguaje natural
REDES NEURONALES
Los primeros intentos de crear circuitos electrónicos que emulaban a las neuronas fue el de los
perceptrones. Las experiencia fallaron porque la configuración de la conexión entre neuronas
artificiales era demasiado simple.
Una red neuronal es un conjunto de unidades elementales llamadas neuronas (artificiales), que
están relacionadas entre sí por medio de conexiones. Cada neurona tiene una o varias
conexiones de entrada y una sola de salida, que puede bifurcarse para conectarse a muchas
otras neuronas. Además, a cada neurona se le asocia un número, llamado umbral, y a cada
conexión otro número, su peso. Estos números pueden ser enteros o fraccionarios, positivos o
negativos.
Cuando una neurona recibe estímulos procedentes de otras neuronas, puede o no enviar una
señal por su conexión de salida. Si lo hace, diremos que la neurona se ha disparado. Si la
señal de salida de una neurona sólo puede valer cero o uno, se dice que es digital; en caso
contrario, se dice que es analógica. En las neuronas digitales, es frecuente que la neurona se
dispare (produzca una señal de salida igual a uno) cuando la suma de los productos de los
pesos de sus conexiones de entrada por las señales de salida de las neuronas previas, es
mayor que su umbral.
Las redes neuronales no son útiles en sí mismas, sino sólo cuando se las hace capaces de
aprender. Decimos que una red aprende cuando es capaz de modificar su conducta de tal
manera que su salida o respuesta a ciertos estímulos (entradas) se aproxime poco a poco a un
conjunto de respuestas deseadas. La modificación de la conducta se produce porque los pesos
asociados a las conexiones cambian poco a poco, y precisamente de tal manera que se
obtenga una salida determinada en respuesta a cierta combinación de entradas.
A pesar de los increíbles avances de la tecnología, las máquinas no han podido, hasta hoy,
conquistar algunos de los fuertes de los seres humanos:
• Sólo pueden resolver problemas en un contexto limitado, en cambio un médico, por
ejemplo, sabe mucho más que medicina.
• Fallan los mecanismos de búsqueda y selección de la información pertinente, como
ocurre en Internet. El cerebro humano realiza búsquedas por algún método heurístico
que no conocemos. Como cuando localizamos a un ser querido entre una multitud, sin
verificar, obviamente, la identidad de las demás personas.
• Las computadoras son máquinas físicas. Ahora se experimenta con la simbiosis, es
decir con la conexión de los circuitos eléctricos a tejidos vivos. Pero el hombre, para
muchos científicos y filósofos, es más que física y química. Un religioso agregaría el
alma. La búsqueda científica del alma se está llevando a cabo por parte de eminentes
personalidades, pero aun no han obtenido respuestas.
• La conciencia es la capacidad del pensamiento, de captarse a sí mismo y, con
Descartes, ha quedado plasmada en su "Pienso, luego existo". No sabemos si
compartimos esta característica con algunos de los seres vivos, pero sí estamos
seguros de que las máquinas no son conscientes de su propia existencia.
• La creatividad es propia de los artistas y científicos. Se realizan intentos de crear
programas creativos que escriban poemas, pinten cuadros, inventen nuevos
compuestos químicos, etc. A pesar de que la creatividad fue siempre considerada
como una cualidad humana y hasta una iluminación divina, los griegos de la
antigüedad clásica ya habían comenzado a buscar las fórmulas de la belleza, como la
proporción en la pintura y la armonía en la música. Si alguna vez llegamos a hallar las
leyes de la creatividad, es posible pensar que puedan volcarse en programas
computacionales creativos.
• Hoy sabemos que los sentimientos son procesos biológicos. Ocurren a partir de una
señal por la cual el individuo libera sustancias químicas, como la adrenalina, y diversos
neurotransmisores. Los biólogos y psicólogos se disputan el terreno de la afectividad.
Si todo sentir puede reducirse a reacciones químicas, es dable pensar que la
computadoras puedan alcanzar algún día esta facultad.
Hay científicos que opinan que la computadora es la fase superior de la evolución: simio –
hombre – máquinas.
¿Por qué afirman esto? Porque en el futuro las máquinas podrán reprogramarse, es decir
crearse a sí mismas.
Este punto de vista es defendido, por ejemplo en "El hombre mecánico" por Hans Moravec:
"nuestras máquinas llegarán a tal grado de erudición que podrán dedicarse a su conservación,
reproducción y perfeccionamiento sin necesidad de ayuda. Cuando suceda, se habrá terminado
el relevo genético. Nuestra cultura podrá evolucionar con independencia de la biología humana
y de sus limitaciones, y pasará de una generación de máquinas capaces e inteligentes a otra
mucho más perfecta".
http://alianza.meristation.com/edaddelosreyes/BShelley.htm