Documente Academic
Documente Profesional
Documente Cultură
Fuente: http://borrowbits.com/2012/03/inteligencia-artificial-mito-o-realidad/
____________________
Bienvenida
Estimados estudiantes ¡bienvenidos! a la primera semana del curso, donde abordaremos los conceptos básicos de la inteligencia
artificial, su historia y aplicaciones en sectores industriales y empresariales. Trataremos el test de Turing que permite determinar en
qué momento una máquina adquiere la categoría de comportamiento inteligente. Alan Turing es considerado el padre de la
inteligencia artificial. Asimismo presentaremos la estructura de los sistemas basados en conocimiento. Los contenidos se
complementan con interesantes lecturas, valiosos videos, páginas interactivas e importantes actividades de evaluación que
conducen a la metacognición y a la comprobación de los aprendizajes logrados.
¡Empecemos!
____________________
Introducción al tema
Fuente: http://psmheuristica.webnode.com.ve/clasificacion-metodos-heuristicos/sistema-basados-en-el-
conocimiento-sbc/
El estudio de la inteligencia artificial se inicia formalmente en la década de los años 50, y desde entonces sus técnicas han sido utilizadas y
aplicadas en diversas áreas comunes al desempeño cotidiano de las personas, ayudando, reemplazando, simulando las acciones o
decisiones tomadas por individuos con ciertas características en particular.
La Inteligencia Artificial basada en las ciencias de la computación se complementa con la fisiología y filosofía, reuniendo varios campos
(robótica, sistemas expertos, sistemas inteligentes entre otros), todos los cuales tienen en común la creación de “máquinas” que pueden en
primer lugar “comportarse y posteriormente ”"pensar" tal y como lo hacen los humanos. La idea de construir una máquina, que pueda ejecutar
tareas que parecen necesitar de la inteligencia humana para llevarse a cabo es un atractivo. Las tareas que han sido estudiadas desde este
punto de vista incluyen juegos, traducción de idiomas, diagnóstico, robótica, suministro de asesoría experta en diversos temas.
Aunque no existe una definición única, se entiende sus áreas de aplicación que las vamos conociendo a través de su historia y los legados
dejados por los investigadores de la disciplina. Los temas de la inteligencia artificial son relativamente nuevos y en permanente evolución por
lo que es necesario ubicar el contexto en el que se desarrollan las aplicaciones y la tecnología utilizada, sin las computadoras actuales no
hubiera sido posible el avance de la disciplina.
Por esta razón en esta sesión estudiamos los conceptos generales de la inteligencia artificial, su historia, aplicaciones y tests para verificar
cuando una máquina tiene comportamiento inteligente. Es fundamental comprender los contenidos propuestos para posteriormente enfrentar
con éxito los temas de las siguientes sesiones.
Los sistemas basados en conocimiento intentan resolver problemas complejos imitando el comportamiento de un experto en el dominio del
problema, por lo que se requiere de una estructura que permita representar el conocimiento y su posterior tratamiento en forma declarativa,
tomando decisiones en función del estado del entorno, ejerciendo control sobre el mismo. Por esta razón en esta semana estudiamos la
estructura de los sistemas basados en conocimiento, haciendo énfasis en un esquema particular y muy desarrollado a la fecha conocido
como sistemas expertos.
Aprendizajes esperados
Capacidades
Actitudes
La inteligencia artificial es relativamente nueva (se inicia formalmente a mediados del sigo pasado) sin embargo a la fecha no tenemos una definición precisa,
los autores la definen en función de los diferentes escenarios en los que se producen las soluciones. se desarrolló gracias a la tecnología computacional y
actualmente se aplica prácticamente en todos los campos del quehacer humano.
Observa detenidamente el siguiente esquema, en el encontrarás de un "vistazo" de manera sintetizada los principales concepto de la temática que
abordaremos. ¿Qué conceptos o categorías te llaman la atención?
Fuente:Elaboración propia
1.1 Presentación de la Inteligencia Artificial
Fuente: http://despiertaalfuturo.blogspot.com/2014/11/inteligencia-artificial-puede-extinguir.html
La historia del ser humano se ha visto rodeada de creaciones e innovaciones tecnológicas que van desde el invento
de herramientas para la agricultura y uso de la rueda que le permitían ahorro de esfuerzo en la realización de tareas
físicas hasta el desarrollo de herramientas computacionales que apoyan el procesamiento de información, muy útil
en la gestión de las empresas. En este proceso de innovaciones aparece la necesidad de procesar conocimiento
humano en un computador que apoye en la toma de decisiones que requieran cierto grado de inteligencia.
La inteligencia artificial es una rama del conocimiento humano de reciente aparición (fue formalizada a mediados del
siglo pasado) con respecto a otras áreas como la matemáticas, la física y la química que tiene varios siglos de
tratamiento y estudio. La idea es convertir al computador en una herramienta de procesamiento de conocimientos,
para ello se requieren realizar un conjunto de tareas, tales como, el reconocimiento e interpretación de imágenes, el
reconocimiento e interpretación del lenguaje natural, el tratamiento de información para elaborar diagnósticos y
pronósticos, la deducción de teoremas, la participación en juegos electrónicos, entre otras.
La aparición de las modernas computadoras hace posible técnicamente la implementación de tareas como la
visión artificial, tratamiento del lenguaje natural fundamentales para el procesamiento del conocimiento, en este
sentido presentamos en nuestro curso la teoría y práctica relacionada a la implementación de sistemas basados en
conocimiento.
Enfoques de la inteligencia artificial
McCarthy y Minsky, del MIT promueven un enfoque tecnológico que permita desarrollar una tecnología capaz de
suministrar al ordenador capacidades de razonamiento o discernimiento similares, o aparentemente similares a las
de la inteligencia humana. Este enfoque es eminentemente práctico y se centra en los resultados obtenidos, en la
utilidad, y no tanto en el método. Este enfoque incluye a los Sistemas Expertos.
Newell y Simon, de la Carnegie Mellon University proponen un enfoque orientado a la investigación relativa a los
mecanismos de inteligencia humana, que emplea el ordenador como herramienta de simulación para la validación
de teorías. En este sentido proponen la creación de un sistema artificial que sea capaz de realizar los procesos
cognitivos humanos. Desde este punto de vista no es tan importante la utilidad del sistema creado (qué hace), como
lo es método empleado (cómo lo hace) y se orientan a estudiar el aprendizaje y la adaptabilidad en un sistema
cognitivo artificial.
Definición de inteligencia artificial
Fuente:
http://baycarsubol2124.blogspot.com/2012/03/conferencia-
de-darmouth.html . Darmouth
El término inteligencia artificial fue propuesto en la conferencia de Darthmouth en 1956, sin embargo es complicado encontrar una sola
definición que satisfaga a todos los grupos de investigadores a nivel mundial.
El problema se presenta cuando nos referimos a “comportamiento inteligente” o “razonamiento inteligente”, por ejemplo, un programa de
computador que juega ajedrez frente a un maestro, podemos afirmar que el programa actúa inteligentemente pero razona inteligentemente?,
en realidad lo que hace es implementar algoritmos de búsqueda de soluciones en un espacio determinado y selecciona la propuesta más
cercana al objetivo, mientras que el maestro ademas de actuar con inteligencia aplica razonamiento cuando selecciona la mejor jugada en
función de la viabilidad de unas cuantas posibilidades optimizando la búsqueda de soluciones.
En este sentido podemos partir que la IA busca implementar máquinas con comportamiento inteligente frente a un problema determinado, por
lo tanto no constituye un objetivo el método o forma de razonamiento.
En esta definición no están incluidos los problemas que se resuelven de forma exacta con algoritmos bien definidos, pues en ellos no se
evidencia ningún comportamiento inteligente sino más bien la aplicación mecánica de una secuencia de pasos o etapas.
Los problemas que estamos incluyendo en la definición son aquellos que enfrenta el ser humano para los que no existen algoritmos
conocidos y para su solución se utilizan más bien un conjunto de reglas o criterios denominadas heurísticas.
La diferencia entre los algoritmos y las heurísticas es que los algoritmos siempre llevan a la misma solución, mientras que las heurísticas no
garantiza que nos lleve a la solución correcta, ademas pueden existir muchas heurísticas aplicables a determinado problema, con lo que la
selección de cualquiera de ellas afecta los resultados.
Podemos entonces identificar un conjunto de problemas realmente complejos que requieren inteligencia y originalidad para su solución, tales
como descubrir nuevos teoremas matemáticos, diagnosticar enfermedades como lo haría un médico, componer música como lo haría
Beethoven o comprender una expresión en lenguaje natural como el español o el inglés. Para realizar estas tareas no existen algoritmos
específicos sin embargo la gente tradicionalmente aplica heurísticas, incluso a veces, sin darse cuenta, y en muchos casos, las realizan sin
saber realmente cómo las hacen ni qué pasos siguen en todos los casos, por mucha introspección a la que se sometan, solamente las
ejecutan.
La IA es la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica
de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa
resolución.
Sin embargo aunque esta definición sea aceptable para un curso universitario presentamos un conjunto de alternativas:
El arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. (Kurzweil,
1990).
El estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight,
1991).
La rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente (Luger y Stubblefield, 1993).
Un campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales
(Schalkoff, 1990).
Disciplina que se dedica a la construcción de programas informáticos capaces de realizar trabajos inteligentes. Sus objetivos básicos
son dos: (1) estudiar el comportamiento inteligente de las personas humanas, y (2) hacer programas de ordenador inteligentes
capaces de imitar el comportamiento humano (Duda y Shortliffe).
El arte de construir máquinas capaces de hacer cosas que requerirían inteligencia en el caso de que fueran hechas por seres
humanos (Marvin Minsky).
En vista de las diversas posiciones respecto a la definición de la IA se ha propuesto una clasificación de las mismas:
Razonamiento Sistemas que piensan como humanos. Sistemas que piensan racionalmente.
Comportamiento Sistemas que actúan como humanos. Sistemas que actúan racionalmente.
Es conveniente mencionar que en todos los casos asumimos que se logra la inteligencia “artificial” con el uso de la ciencia de la computación
apoyada en las tecnologías de la información y las comunicaciones. En la práctica la IA se implementa con las computadoras que son los
dispositivos de procesamiento de información más complejos y potentes que ha desarrollado el ser humano, y la actividad intelectual es en
esencia un proceso de manipulación y análisis de información.
La Inteligencia Artificial es multidisciplinar y se apoya en los conceptos y técnicas de otras disciplinas, tales como: la Informática, la
Ingeniería, la Sociología, la Ciencia del Comportamiento, la Psicología Cognoscitiva, la Investigación Operativa, la Economía, la Teoría
General de Sistemas, etc.
Fuente:
http://cio.com.mx/inteligencia-
artificial-como-puede-ser-
usada-por-las-empresas/
SOLUCION DE PROBLEMAS EN GENERAL. Estudia los sistemas capaces de hallar métodos para solucionar problemas de cierto grado de
complejidad.
PERCEPCION. Estudia sistemas capaces de reaccionar al entorno y actuar sobre el, se usan sensores y para captar las variables del mundo
exterior y actuadores para modificar el entorno. Incluye sistemas de visión artificial, reconocimiento de formas, etc.
COMPRENSION DE LENGUAJE NATURAL. Estudia sistemas que interpretan el lenguaje natural y permiten la interacción entre humanos y
máquinas mediante lenguajes no estructurados.
APRENDIZAJE, DEMOSTRACION DE TEOREMAS, JUEGOS. Estudia técnicas de aprendizaje que permitan a una máquina captar
información del mundo exterior y generar sus propios aprendizajes, asimismo puede reconocer formas y símbolos matemáticos con el
objetivo de demostrar teoremas. También se trabaja con la teoría de juegos de manera que las máquinas se comporten inteligentemente, por
ejemplo en el juego de ajedrez. Tradicionalmente se han estudiado escenarios que requieren deducción como son los casos del granjero, la
gallina, el perro y el maíz, los misioneros y los caníbales, etc.
SISTEMAS EXPERTOS. Son sistemas capaces de tomar decisiones en base a información almacenada adecuadamente, la misma que es
tratada por un motor de inferencias. Ejemplos de estos sistemas son: el diagnóstico médico, la ingeniería química, la exploración geológica, el
diseño de computadoras entre otros.
LENGUAJES DE LA INTELIGENCIA ARTIFICIAL. Para desarrollar aplicaciones en Inteligencia artificial se usan lenguajes como Prolog
(basado en la lógica) y LISP (procesamiento de listas), en la actualidad existen ambientes de desarrollo y frameworks que facilitan tareas al
programador.
HARDWARE PARA LA INTELIGENCIA ARTIFICIAL. Los programas que implementan algoritmos y técnicas de la inteligencia artificial
requieren procesadores veloces trabajando en paralelo, grandes capacidades de memoria, aunque los computadores que usamos en la
actualidad han incrementado su capacidad de procesamiento, los investigadores siguen buscando el computador ideal que probablemente
sea muy diferente a los que conocemos actualmente.
ROBOTICA. La ciencia de la robótica se apoya en diferentes técnicas de IA. El robot debe ser capaz de comunicarse en lenguaje natural y
debe poder realizar tareas que requieran iniciativa y originalidad, esto implica que el robot debe aprender y llegar a realizar tareas para las
cuales no estaba inicialmente programado. Es necesario distinguir a los robots con los autómatas programables.
CIBERNETICA. La cibernética es una ciencia interdisciplinaria, tratando con sistemas de comunicación y control sobre organismos vivos,
máquinas u organizaciones. El término es una derivación del vocablo griego kybernetes que significa gobernador o piloto, y fue aplicado por
primera vez en 1948 a la teoría del control de mecanismos por el matemático americano Norbet Wiener.
LA INGENIERIA DEL CONOCIMIENTO es una de las especialidades que necesitan los modernos métodos de la IA. Algunos aspectos
importantes del conocimiento son intangibles e inexplicables; el trabajo de los ingenieros del conocimiento consiste en parte en extraer este
tipo de conocimiento de los expertos humanos y en parte en codificar el conocimiento así obteniendo, de manera que pueda ser procesada
por un sistema de computador. El problema es que el ingeniero del conocimiento no es un experto en el campo que intenta programar,
mientras que el experto en el tema no tiene experiencia programando, y en cualquier otro caso este ultimo usa muchas partes importantes de
su conocimiento de manera subconsciente, por lo que es incapaz de proporcionar la información de manera voluntaria aunque así lo desee.
Las computadoras
El software
Los programas
La tecnología
Los robots
Adaptarse al entorno.
Interlocutor.
Conversacional.
Chateador.
Chatbot.
Chatting
1.2 Evolución histórica
Los primeros investigadores realizaban sus trabajos basados en el modelo de McCulloch y durante los años 50 se logra el Perceptrón de
Rosenblatt, un sistema visual de reconocimiento de patrones.
Durante los años 60 Alan Newell y Herbert Simon trabajan la demostración de teoremas y el ajedrez con ayuda de computadoras usan un
programa denominado GPS(General Problem Solver: solucionador general de problemas). Éste era un sistema en el que el usuario definía
un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con
las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos formalizados que
representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas ni
del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios
descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error.
Ya en los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de
la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el primer sistema experto denominado
Dendral, un intérprete de espectrograma de masa construido en 1967, luego en 1974 aparece Mycin capaz de diagnosticar trastornos en la
sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff,
variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU).
Luego en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como LISP y PROLOG. Es en esta
época cuando se desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su propio
cuerpo de reglas heurísticas automáticamente, por inducción.
Según Jackson
Fuente: http://cadenaser.com/ser/2014/01/14/ciencia/1389657967_850215.html.
Minsky
Lógica [Kowalski].
Fuente: https://intelligence.org/2013/10/19/russell-
and-norvig-on-friendly-ai/. Russell y Norvig
Gestación 1943- McCullock y Pitts, Hebb, Shannon, Turing,Minsky y Edmonds, Darmouth College,
1956 McCarthy), Newell y Simon, The Logic Theorist.
Dosis de realidad 1966- Simon predecía que en 10 años se tendría una máquina inteligente. Predicciones
1974 similares en traducción automática y ajedrez. Teoría de NP-completness.
Experimentos en machine evolution (ahora algoritmos genéticos) estaban bien
fundados pero no produjeron nada.
Sistemas basados 1969- Dendral, Mycin, HPP, Prospector, Winograd SHDRLU Shank (no hay sintaxis),
en conocimiento 1979 frames, Prolog, Planner
Fuente:
https://sites.google.com/site/allennewell1975/
. Newell
Alan Newell (1927,1992) Hijo de profesor de radiología de la universidad de Stanford se crió en San Francisco y se
graduó en Stanford, después de graduarse pasó un año en Princeton, pero decidió que no era
un matemático y optó por trabajar para la RAND Corporation en un proyecto sobre el
modelado de un centro regional de defensa aérea. Newell conoció a Simon, con el que
compartió su afinidad acerca de la I.A. (Fuente: Aircenter.net)
Allen Newell condujo una vida muy productiva y exitosa como informático. Aquí está algo de la
"heurística" que utilizó:
"Haga lo que usted ame, quiera a lo qué usted hace." Persona de gran energía y entusiasmo
increíbles que solía decir esto.
"Ayude a otros a encontrar un estado similar, no importa cómo de diferente puedan ser sus
opciones" . Puesto que él era feliz y seguro en lo que él hacía, Allen se imbuía sobre lo que
hacía la gente, y podría ayudarle a menudo a él hacer buenas opciones.
"No se preocupe de lo intrínseco o lo elegante que usted es o cualquier persona es". Nunca le
vi sentirse amenazado por la brillantez de otra persona u ofendido por su carencia de ella. Él
juzgó solamente el funcionamiento.
"Sea intelectualmente fuerte, uniformemente para todo el mundo". Allen era intelectual incluso
al crítico más resistente que tenía siempre. Al principio, no pensé que se ajustara con su
actitud de apoyo. Pero entonces reconocí algo que no era personal; él aplicó estándares
resistentes así mismo.
"Sea cuidadoso sobre lo que usted vaya a hacer, y después realmente hágalo". Él acordó
hacer solamente algunas de las cosas de las que le pregunté, ya que le ayudaría siempre con
algo que creía que era importante. Cuando hacia algo, no había duda sobre su nivel del
esfuerzo.
Alan Turing demostró que una serie de instrucciones sencillas podían resolver cualquier
problema complejo. Él y su equipo desarrollaron el Colossus, uno de los primeros
ordenadores. Esta enorme máquina empleaba 1500 válvulas, que se quemaban a razón de
una cada pocos minutos. El Colossus podía procesar 5000 caracteres por segundo y tenía la
misión de descifrar el código alemán Enigma.
John Von Neunman (1903, 1903 El 28 de diciembre nace en Budapest (Hungría) Janos Louis Neumann
1957)
1921 Primer escrito matemático publicado junto con su tutor.
1947 Informe sobre el ENIAC y el bosquejo del diseño de un nuevo ordenador, que recibirá el
nombre de EDVAC (Electronic Discrete Variable Computer) y será construido según sus ideas
1951 JOHNIAC, el ordenador diseñado personalmente por Neumann, entra en funcionamiento
en la Universidad de Princeton
1957 El 8 de febrero muere de cáncer en Washington D.C (U.S.A). Como un honor especial
se dedica un volumen completo del Bulletin of the American Mathematical Society a su vida y
obra.
Hasta 1945 la arquitectura física de todo ordenador servían a la par de programa en el plano
más estricto, y por lo tanto los cometidos de estas máquinas eran inamovibles, a menos que
los ingenieros se atreviesen a cambiar las conexiones, esto además de ser una tarea ardua y
en ocasiones casi imposible, era sumamente costoso. John Von Neumann sugirió en 1945
una alternativa hacia una arquitectura más versátil. Nacido en Budapest en 1903, Neumann a
ofrecido a la humanidad muchas y muy variadas aportaciones científicas, como la teoría de
los juegos, teoría de los autómatas, cálculo de la propagación de las ondas de choque,
ensayo sobre la matemática de la teoría cuántica, etc. La arquitectura de "Von Neumann" fue
adoptada por todos los ordenadores desde la Segunda Guerra Mundial, dicha arquitectura
hace una diferenciación del ordenador en dos partes, que son las siguientes: CPU (Unidad
Central de Procesamiento): que opera sobre los datos que hay que manipular. MEMORIA: es
aquí donde están guardados los datos.
Las máquinas con arquitectura Von Neumann operan al compás de ciclos definidos con
precisión:
- Toma de otra parte de la memoria el dato sobre el que hay que operar.
- Ejecuta la operación.
- etc...
El primer ordenador que adoptó esta nueva arquitectura fue el Electronic Discrete Variable
Computer [Ordenador Electrónico de Variable Discreta] (EDVAD). Más tarde se le unió el
JOHNNIAC (de la RAND Corporation) y el MANIAC [Maniaco], el Mathematical Analyzer,
Numerical Integrator and Calculator [Calculador, Integrador Numérico y Analizador
Matemático.
Herbert Simon (1916 - 2001) Herbert Simon que por aquel entonces (1955) tenía 36 años, se formó como político científico,
comenzó investigando sobre la administración municipal. En 1948 participó en la
administración pública en el Plan Marshall, después de la segunda guerra mundial. Poco
después trabajó en la fundación de la Graduate School of Industrial Administration [Escuela
de Administración Industrial para Postgraduados], organización perteneciente a la Canegie
Mellon. A Herbert Simon le fascinaba la forma con la que las personas toman decisiones, y
sus ideas prosperaron hacia el estudio del funcionamiento de la mente humana, hasta el
punto de desarrollar una teoría que trataba de explicar cómo las personas e instituciones
toman decisiones, tesis a la que llamó Teoría de la racionalidad limitada.
Investigador en Psicología humana que empezó utilizando los símbolos para la resolución de
problemas, hablados y escritos, aprender e inventar. Los últimos 45 años, la psicología
cognitiva ha construido y testeado modelos empíricos de esos procesos como los que ellos
utilizaron para resolver desde simples tareas a las más complicadas. Los modelos toman su
forma de los programas computarizados que simulan el comportamiento humano.
Noam Chomsky(1928-) Profesor de instituto; profesor de lingüística, teoría lingüística, sintaxis, semántica, filosofía del
lenguaje y que recientemente ha publicado el libro "El archivo de Noam Chomsky"
Publicaciones y libros:
Linguistic Inquiry Monograph 13, Cambridge: MIT Press, 1986.
Knowledge of Language: Its Nature, Origin, and Use. New York: Praeger Publishers, 1986.
Language and Problems of Knowledge: The Managua Lectures, Cambridge: MIT Press, 1987.
Generative Grammar: Its Basis, Development and Prospects. Studies in English Linguistics
and Literature, Special Issue, Kyoto University of Foreign Studies, 1988.
"Some Notes on Economy of Derivation and Representation." In I. Laka and A. Mahajan (eds)
Functional Heads and Clause Structure. MIT Working Papers in Linguistics, 10, 43-74, 1989.
Reprinted in Robert Freidin (ed) Principles and Parameters in Comparative Grammar, Current
Studies in Linguistics Series No. 20, 417-454, Cambridge: MIT Press, 1991.
"On the Nature, Use and Acquisition of Language." W. Lycan (ed) Mind and Cognition: A
Reader, 627-646, Oxford: Blackwell, 1990.
"Linguistics and Adjacent Fields: A Personal View." In A. Kasher (ed) The Chomskyan Turn. 3-
25, Oxford and Cambridge, MA: Basil Blackwell, 1991.
"Linguistics and Cognitive Science: Problems and Mysteries." In A. Kasher (ed) The
Chomskyan Turn. 26-53, Oxford and Cambridge, MA: Basil Blackwell, 1991.
"A Minimalist Program for Linguistic Theory." In K. Hale and S.J. Keyser (eds) The View from
Building 20: Essays in Linguistics in Honor of Sylvain Bromberger. 1-52, Cambridge MA: MIT
Press, 1993.
(with Howard Lasnik) "The Theory of Principles and Parameters." In J. Jacbos, A. von
Stechow, W. Sternefeld and T. Vennemann (eds) Syntax: An International Handbook of
Contemporary Research. 506-569, Berline and New York: Walter de Gruyter, 1993.
"Bare Phrase Structure." Cambridge: MITWPL, January 1994. Reprinted in Otero Festschrift.
Georgetown University Press (in press). "Naturalism and Dualism in the Study of Language
and Mind." International Journal of Philosophical Studies, 2, September 1994 (in press).
Naturalism and Dualism in the Study of Language and Mind." International Journal of
Philosophical Studies, 2, September 1994 (in press).
Claude Elwood Shannon Clause Shannon se graduó en Michigan y fue a MIT donde escribió una tesis sobre el uso del
(1916-2001) Algebra de Boole para analizar y optimizar el intercambio en los circuitos. Estuvo en Teléfonos
Bell en 1941 como matemático investigador y permaneció allí hasta 1972. Publicó "A
Mathematical Theory of Communication" en el diario de Bell System Technical Journal (1948).
Su trabajo fundó el sujeto de la teoría de información y propuso un modelo esquemático lineal
de sistemas de comunicaciones. Creó un método para el análisis de secuencias de términos
de error en una señal para encontrar su variedad heredada, llegando a diseñar una variedad
de sistemas de control. En 1952 generó un experimento que ilustraba las capacidades de los
relés telefónicos. Shannon fue premiado con la Medalla Nacional de Ciencias en 1966.
Marvin Minsky (1927-) Marvin Minsky ha hecho multitud de contribuciones a la Inteligencia Artificial, psicología
cognitiva, matemáticas, lingüística computacional, robótica y óptica. En años recientes ha
trabajado como jefe en la capacidad de las máquinas para el raciocinio. Sus concepción de la
estructura humana intelectual y las funciones fueron presentadas en la The Society of Mind
(1987), el cual es también el título de uno de los cursos en el MIT. Recibió el BA y PhD en
matemáticas por Harvard y Princeton. En 1951 construyó el SNARC, el primero simulador de
redes neuronales. Sus otras invenciones incluyen manos mecánicas y otros periféricos de
robots, el "confocal scanning microscope", el "Muse", sintetizador para variaciones de música
(con E.Fredkin) y la primera LOGO "tortuga" (con S.Papert). Miembro del NAS, NAE y NAS
Argentina, ha recibido el premio Turing ACM, el Killiam MIT, el Prize japonés, el IJCAI
Research Excellent y el Rank Prize.
Publicaciones y libros:
John McCarthy (1927- Hijo de padre católico Irlandés y madre judía lituana, John McCarthy abrazó el marxismo. En
2011) un principio fue expulsado de la Cal Tech (Instituto Tecnológico de California) por negarse a
seguir las clases de educación física, pero años después fue admitido de nuevo como
veterano de guerra, pues formó parte del. Se licenció en matemáticas en 1948, después
marchó a Princeton para llevar a cabo sus estudios de postgrado. Fue desde allí donde
estudió a Von Neumann, sobretodo su teoría de los autómatas, y trabajó con Claude Shannon
editando una colección de artículos sobre el tema. El verano de 1955, lo pasó en IBM fue allí
donde comprendió que las computadoras digitales ofrecían la maravillosa posibilidad de
construir inteligencias artificiales, yendo más lejos que los meros estudios abstractos que le
exponían las Máquinas de Turing y la Teoría de los Autómatas de Von Neumann. Hasta los
60 trabajó en la investigación de temas relacionados con la I.A. arropado por el título de
"profesor ayudante". Fue a partir de 1960 cuando se dejó el pelo largo y se movió en
movimientos contraculturales. Luchó contra el posible mal uso de la información de los bancos
de datos, y en los 70 busco a su " verdadero yo" practicando con su segunda mujer
paracaidismo y escalada. Mas en 1980, después de la muerte de su mujer (en accidente de
escalada), McCarthy adoptó una nueva imagen y personalidad, más conservadora, empezó a
vestir con trajes clásicos, desdijo sus opiniones de los 60 acerca de la intimidad de datos
informáticos, apoyo un reparto menos equitativo de los fondos para investigación, y se opuso
al proyecto de Edward Fredkin de crear un laboratorio mundial de I.A.
Hurbert Dreyfus (1929-) Hurbert Dreyfus fue posiblemente el primer GRAN detractor con el que se topó la Inteligencia
Artificial desde su creación. El y su hermano Stuart asistieron en 1961 a una conferencia de
Herbert Simon acerca de un modelo psicológico de memoria a corto plazo ideado por este.
Después de una mesa redonda, los hermanos Dreyfus añadieron en el libro de actas una nota
de discusión digna del mejor lenguaje diplomático "A los implacables profetas del ordenador
omnipresente… les falta un atributo fundamental del cerebro humano: unas cuantas neuronas
no comprometidas". Tres años después, en 1964 Hurbert Dreyfus fue contratado por la RAND
Corporation para evaluar la viabilidad de la I.A. desde el punto de vista filosófico. Como
confesó más tarde Paul Armer, que fue quien contrató a Hurbert "si hubiera sabido de sus
anteriores publicaciones en contra de la I.A. no lo habría contratado". El informe escrito por
Hurbert resultó una provocación para la comunidad científica de la I.A., empezando por el
título "La alquimia y la inteligencia artificial". Los partidarios de la I.A. que la defendían desde
la RAND intentaron impedir su publicación, porque…el hecho de que Dreyfus fuese consultor
de la RAND le concedía credibilidad!. En el informe de Dreyfus (La alquimia de la I.A.), este
recurre a argumentos filosóficos para negar la viabilidad de la I.A., todo ello formulado con la
diplomacia que le caracteriza en asuntos de esta índole. Dicho artículo fue el más vendido de
todos los difundidos por la RAND, cosa que a esta misma no le hizo nada de gracia. Seymour
Paper, a su vez, respondió a La alquimia y la inteligencia artificial con un informe titulado La
inteligencia de Hurbert L. Dreyfus: un manojo de falacias. Pero no solo eso, sino que Paper
retó a Dreyfus a jugar una partida de ajedrez contra MacHack (programa de ajedrez
desarrollado por el MIT) y…Herbert Dreyfus perdió.
Pero, todas estas dificultades que tuvo la I.A. en sus "inicios" nos parecen hoy en día aún más
tristes, pues podemos comprobar que los comentarios de Dreyfus eran acertados y precisos,
pero dado que su posición fue la "guerra a la I.A.", y sus medidas diplomáticas fueron
inexistentes… todo lo que dijo Dreyfus no sirvió para nada. ¿Qué habría sido de la I.A. si
Dreyfus hubiera expuesto todas sus teorías de una forma más constructiva?, posiblemente
estaríamos igual (más o menos), pero habría colaborado a levantar un poquito esta joven
ciencia, que aunque joven…promete.
Frank Rosenblatt (1928- Frank Rosenblatt, nacido en Nueva York, en 1928 se licenció en Psicología Social en la
1971) Universidad de Cornell en 1950 y en 1956 obtuvo el doctorado en Psicopatología
Experimental por la misma universidad.
El Perceptrón se creó por primera vez como una simulación en un IBM 704, y en 1958,
Rosenblatt entregó su proyecto a la prensa, este hecho encendió la ira de la comunidad
científica de I.A., otro investigador que había cometido el grave error de dejarse llevar por los
flashes de las cámaras.
En un artículo publicado por Rosenblatt en la mismísima Science, solo el título hace prever el
disgusto de los científicos << Perceptrón: ¿Un sustituto de los cerebros humanos? >> La
verdad es que el Perceptrón fue una buena idea, y es posible que los problemas que obtuvo
fuesen provocados más que nada por el exagerado entusiasmo de su creador. El Perceptrón
suponía la unión entre el Pandemonium de Selfridge y las neuronas de McCulloch y Pitts.
Más tarde, en 1969, Marvin Minsky y Seymour Paper escribieron un libro llamado
"Perceptrones", en donde definían a estros como caminos sin salida. También es verdad que
ahondaron en ellos y sacaron conclusiones muy curiosas e interesantes, pero dado que
ambos son dos personalidades de peso en el mundo de la I.A., en cuanto se publicó el libro,
todas las investigaciones acerca de Perceptrones se paralizaron y anularon. Frank
Rosenblatt, que según se rumoreaba estaba ya algo cansado de los Perceptrones sufrió un
accidente y se ahogó navegando.
Sistemas desarrollados
Fuente: http://www.monografias.com/trabajos64/inteligencia-
artificial-investigacion-sistemas-computo/inteligencia-
artificial-investigacion-sistemas-computo2.shtml
MACSYMA AM - D. Lenat
ELIZA - Weisenbaum
Shakey - SRI
SHDRLU - Winogard
MYCIN - E. Shortliffe
MARVEL - sistema experto en tiempo real que maneja la información de Voyager y ayuda a diagnosticar fallas [Schwuttke 92]
Sistema de diagnóstico de medicina interna con capacidad de explicar sus razones a los expertos [Heckerman 91]
NAVLAB - vehículo autónomo que viaje en forma automática de un extremo a otro de EUA [Pomerlau 93]
Sistema de visión que monitorea el tráfico en Paris y reconoce accidentes con los cuales llama a servicios de emergencia [Koller 94]
DEEP BLUE - máquina paralela que juega ajedrez y primera en derrotar al campeón mundial [IBM 97]
Sistemas desarrollados (detalles)
ELIZA Casi cada publicación famosa en la IA menciona el programa ELIZA que fue escrito a finales de los sesenta
por el profesor Joseph Weizenbaum de Massachusetts Institute of Technology (MIT). El programa fue
diseñado como una ayuda al análisis del lenguaje y el profesor J. W. Lo llamo así en honor a la muchacha
que aparece en la obra de G. B. Shaw, que comenzó como una vendedora callejera de flores y su vida se
transformó cuando el profesor de dicción le enseño a hablar un correcto inglés, quien asumió esta tarea
como parte de una apuesta. Un elemento muy importante del mensaje de Shaw era que aunque Eliza
continuaba siendo la misma persona, con las misma virtudes y defectos antes y después de su
transformación, la gente la veía de un manera deferente, como una señorita bien vestida y con un acento
culto, en contraste con la desastrada vendedora de flores que hablaba de una forma vulgar. Podemos
obtener la moraleja de esta historia y observar que aunque un programa sea muy complejo la computadora
sigue siendo una acumulación inanimada de dispositivos electrónicos y que, aunque algunos de los
resultados puedan ser sorprendentes la maquina es capaz de ejecutar únicamente las tareas para las cuales
fue exactamente programada y nada más.
MYCIN La especialización de en cualquier actividad requiere un gran conocimiento de asociado. El proceso para
poder practicar una cierta actividad depende de la asimilación de este conocimiento. Un conjunto de hechos
constituyen una gran parte del conocimiento básico sobre un tema, pero son igualmente importantes la
destreza que se puede adquirir con la experiencia, las ideas generales en algunos casos acerca de lo que es
una buena práctica y el arte de tomar un decisión acertada basándose en información incompleta. Esto
resulta tan importante para el aprendizaje de cualquier materia o para que el estudiante de cualquier ciencia
adquiera los aspectos sutiles del tema, como aprender las premisas básicas. En la creación de un sistema
experto hay una parte bastante inmediata de codificación de los hechos conocidos sobre un tema; la parte
más difícil, conocida como modelización de la maestría, consiste en la formulación y aplicación de reglas
extraídas de la experiencia que se posee en el tema. En cualquiera de los casos el sistema está constituido
por una base de conocimientos que proporcionan los hechos y un motor de inferencia para desarrollar las
deducciones lógicas y tomar decisiones (algunas veces acompañadas de un porcentaje de probabilidad
acerca de la corrección de las deducciones), basadas en los hechos y reglas conocidas.
El programa MYCIN publicado por E. Schortcliffe en 1976 es un sistema que diagnostica enfermedades
infecciosas, en particular infecciones sanguíneas. MYCIN lo usan médicos en prácticas para obtener ayuda
en sus diagnósticos, a su vez el sistema se actualiza con los hechos y reglas de inferencia que proporcionan
los especialistas.
DENDRAL DENDRAL es un programa experto de análisis químico y se ha aplicado con mucho éxito en muchos lugares
del mundo. DENDRAL soluciona un problema de ingeniería química en tres fases. En primer lugar, el
programa infiere cualquier posible restricción sobre la solución basándose en el conocimiento que posee en
su base de datos. A continuación permite a los usuarios añadir cualquier otro tipo de restricción y finalmente
genera y comprueba una lista de posibles soluciones, que imprime en orden de preferencia. DENDRAL se
escribió originalmente en LIPS, pero ha sido reprogramado para ser usado en varias máquinas diferentes de
entre las que se destaca la implementación realizada sobre un PDP-10 en Edimburgo. Este programa
basado en la estrategia de "planificar, generar y comprobar" se usa en las universidades y en las industrias
de Estados Unidos y en Europa y representa una de las aplicaciones prácticas de la IA que más éxito ha
conseguido de entre las desarrolladas hasta la fecha.
1.3 Sistemas computacionales y sistemas inteligentes
La evolución de millones de años ha permitido que los seres humanos logren realizar tareas consideradas como inteligentes. Posteriormente
el hombre crea las computadoras que permiten el procesamiento de datos en base al modelo Von Neuman,, posteriormente se crean las
redes de computadoras para el tratamiento secuencial de la información, a estos sistemas los denominamos sistemas computacionales,
cuando estos sistemas pueden realizar tareas tal como si tuvieran comportamiento humano, las denominamos sistemas inteligentes.
Los sistemas computacionales han variado desde el tratamiento de archivos (sistemas computacionales) hasta el procesamiento del
conocimiento (Sistemas inteligentes).
El objetivo de los sistemas inteligentes (aunque ambicioso aún) es construir artefactos que puedan crear su propio conocimiento y razonar
sobre él, que planifique su aprendizaje y modifique su entorno con toma de decisiones y autonomía, sin intervención del ser humano.
Basados en estos conceptos se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del ser humano relacionando
reglas de cierto lenguaje (hablado o escrito) y sobre su propia experiencia pueda hacer juicios sobre cierto tema o problemática, estos
sistemas simulan el proceso de aprendizaje, memorización, razonamiento y comunicación de sus decisiones tal como lo haría un experto en
cualquier disciplina del quehacer humano.
1.4 Aplicaciones en las industrias y en las empresas
Las lineas tradicionales de investigación en IA incluyen el razonamiento lógico, la traducción automática y comprensión del lenguaje natural,
la robótica y automatización, la visión artificial y, especialmente, las técnicas de aprendizaje y de ingeniería del conocimiento. Estas dos
últimas ramas son las más directamente aplicables al campo de la industria y las finanzas pues, desde el punto de vista de los negocios, lo
que interesa es construir sistemas que incorporen conocimiento y, de esta manera, sirvan de ayuda a los procesos de toma de decisiones en
el ámbito de la gestión empresarial.
Desde un punto de vista amplio las aplicaciones de la IA actualmente se dirigen a resolver problemas en empresas industriales, disciplinas
médicas, diseño de ingeniería, etc.
En el ámbito específico del Análisis Contable, según Bonsón Ponte y Sierra Molina la Inteligencia Artificial constituye una de las líneas de
actuación futura más prometedoras, con posibilidades de aplicación tanto en el ámbito de la investigación como en el diseño de sistemas de
información inteligentes, que no solamente proporcionen datos al decisor sino que recomienden el mejor curso de actuación a seguir.
Existe un gran número de aplicaciones exitosas de sistemas expertos. Algunos ejemplos de empresas que los utilizan son: American
Express, Citibank, Manufacturers Hanover Trust, Yamaichi Securities y National Westminister Bank, que los han empleado para efectuar
evaluación de préstamos personales, manejo de inversiones, y para predicciones de mercados financieros.
La empresa californiana Countrywide Funding usa un gigantesco sistema experto para evaluar sus hipotecas. El objetivo de la empresa era
desarrollar un sistema inteligente capaz de evaluar hasta 50,000 aplicaciones mensuales de una forma más eficiente que la utilizada
tradicionalmente. Aunque inicialmente se evaluaron otras técnicas, tales como las redes neuronales, se optó por los sistemas expertos
debido a su capacidad de explicar la forma en que se llega a una cierta decisión. Tradicionalmente, el proceso de evaluación de hipotecas es
efectuado por personal altamente calificado que analiza hasta unos 150 elementos para tomar su decisión, incluyendo la solvencia del cliente
y el valor de la propiedad. En promedio, el proceso de evaluación manual toma unos 50 minutos. El sistema experto que Countrywide
Funding usa ahora, llamado CLUES, tiene unas 1,000 reglas y requiere de entre 1 y 2 minutos para procesar una aplicación. El sistema
aprueba automáticamente el 55% de las aplicaciones y desaprueba todas aquellas que un humano rechazaría. Si el sistema recomienda que
se rechace una aplicación, la decisión final la debe tomar un evaluador humano, quien verifica el proceso que siguió el programa para tomar
esa decisión.
La empresa aseguradora Continental Canada ha desarrollado un sistema experto para evaluar aplicaciones de seguros para automóviles de
una forma eficiente. Este sistema contiene cientos de reglas derivadas de expertos humanos en pólizas de seguros. Por ejemplo, hay reglas
específicas para asignar un riesgo más alto a aquellos casos en que el cliente sea joven (y por tanto inexperto) y cuando se tengan vehículos
más viejos (y por ende más propensos a fallas mecánicas). El sistema procesa todas las aplicaciones y activa ciertas alertas cuando se
detectan posibles problemas. En estos casos, la decisión final queda a cargo nuevamente de un experto humano. Continental Canada afirma
que este sistema experto redujo los gastos administrativos de la empresa en un 55%, incrementado las ganancias en un 30%.
AFIN (Análisis Financiero de Balances): Realiza un análisis de los estados financieros. Estudia, para dos años
consecutivos, los Balances y Cuentas de Resultados, la Memoria, el Estado de Origen y Aplicación de Fondos,
confecciona cuadros y calcula ratios de tesorería, endeudamiento, rentabilidad económica y financiera, etc. También
presenta un informe del diagnóstico de la situación de la empresa, indicando una serie de recomendaciones para su
mejora.
AIDE (Assistance Informatisée au Diagnostic d’Entreprise). Ayuda en el diagnóstico de empresas realizado por la
Central de Balances del Banco de Francia. La base de reglas está formada por dos bloques: un bloque financiero,
calculado sobre la estructura del análisis de las empresas por la Central de Balances, y un bloque económico,
centrado en la competitividad, crecimiento y estrategia. El sistema elabora un informe estudiando la posición de la
empresa, sus potencialidades, sus resultados y su estrategia.
SEF (Systeme Expert Fiben). Proporciona a los bancos privados un análisis de solvencia de las compañías que éstos
soliciten. El diagnóstico incluye una lista de debilidades y de materias sobre las que se requiere una investigación más
profunda. Este sistema está pensado para ser utilizado cuando se necesita información rápida sobre una empresa en
concreto, pues se puede acceder on line (vía tele texto), pero también proporciona información detallada si se trata de
operaciones importantes, como por ejemplo préstamos de gran cuantía.
ALFEX (Alvey Financial Community Club, Helix Software Consultants y Expert Systems International). Es un proyecto
de construcción de sistemas expertos patrocinado por el Alvey Financial Community Club. El objetivo de este proyecto
es crear sistemas expertos capaces de asesorar sobre la salud financiera de una compañía, así como desarrollar
bases de conocimiento y herramientas apropiadas para la construcción de estos sistemas. Proporciona un informe
sobre la salud financiera de la compañía, apoyado con gráficos, previsiones de ventas, ratios, análisis de sensibilidad,
etc.
ANALYSIS CERG Finance. Clasifica funcionalmente el Balance y la Cuenta de Pérdidas y Ganancias, calcula los
flujos económico financieros,la rentabilidad, el potencial de crecimiento, la gestión del activo económico, la solvencia,
la estructura financiera, etc.
ERITEL Ayuda a los analistas financieros a evaluar la gestión comercial y financiera de la empresa. Realiza un análisis
patrimonial, financiero y económico de la situación de la empresa, tanto desde un punto de vista estático como
dinámico. Consta de dos módulos: el primero realiza el cálculo de ratios, gráficos, etc. y el segundo establece las
conclusiones y presenta un informe de la compañía, resaltando los puntos fuertes y débiles.
FINEX Kerschberg y Dickinson Asesora en el análisis de los estados financieros de las empresas pertenecientes a la
industria de venta al por mayor de petróleo. El sistema calcula los ratios financieros partiendo de los datos obtenidos
de la Cuenta de Pérdidas y Ganancias y del Balance.
FSA (Financial Statement Analyzer) Arthur Andersen & Co. Realiza la revisión analítica de los estados financieros de
una empresa. El sistema efectúa un análisis de ratios usando las cuentas e informes anuales que las sociedades
americanas tienen que presentar a la SEC (Securities and Exchange Commision - Comisión del Mercado de Valores).
Además se incorporan técnicas de procesamiento del lenguaje natural para analizar los textos de los documentos
contables.
ORDIMEGA Es un sistema experto de previsión financiera. Partiendo de los datos generados por un módulo anterior
(el Préface-Tableur), tales como ratios, umbral de rentabilidad, fondo de rotación, estructura de los costes y otros,
analiza la estructura y la rentabilidad de la explotación, las tendencias de tesorería, la rentabilidad de los capitales, la
estructura de la financiación, las cuentas previsionales, etc. Posteriormente se le han añadido dos módulos más, el
Préface-Eao, que presenta definiciones comentadas y gráficos y el Préface-Synthèse, que produce un informe
detallado de aproximadamente 20 páginas con los datos, apreciaciones y sugerencias del sistema experto en tres
capítulos: explotación, balance y tesorería.
SAGE Banco Bilbao Vizcaya y Sema Group System. Realiza el análisis financiero y de gestión de empresas. Analiza
los estados financieros y los datos cualitativos de las empresas y emite un informe sobre la calidad financiera y de
gestión.
SYMEDE Fredouet Es un sistema de diagnóstico de empresa multidisciplinar compuesto por tres módulos: jurídico,
económico y financiero. El módulo de diagnóstico jurídico analiza la política patrimonial, contractual y social de la
empresa, el módulo económico trata de los aspectos estratégicos de la situación de la empresa, y el módulo financiero
analiza la actividad de las ventas y del sector productivo, la rentabilidad y la estructura financiera a largo y a corto
plazo.
COMPASS Bank of Scotland Asesora sobre la concesión de préstamos. Además de un módulo convencional que
analiza las cuentas de las empresas solicitantes, incorpora otros tres destinados a tratar información de tipo cualitativo
sobre la viabilidad, seguridad y credenciales de la empresa solicitante, respectivamente.
KABAL Tromsø Sparebank (Noruega) Realiza un análisis de los estados financieros de una empresa. Considera
aspectos relacionados con las garantías, el mercado en el que opera la empresa, la gerencia y la organización interna.
PARMENIDE Banco di Napoli Analiza los estados financieros de una empresa, produciendo estados financieros
previsionales. También incorpora información cualitativa y del mercado, en orden a corregir las valoraciones de las
distintas partidas de los estados financieros.
1.5 El test de Turing
Alan Turing postuló en 1960 que una máquina presenta comportamiento inteligente si un observador es incapaz de distinguir, para un
problema determinado,entre las sucesivas respuestas proporcionadas por la máquina y un ser humano, la propuesta fue publicada en el
artículo Computing machine and intelligence.
Una persona (X) se encuentra en una habitación mientras que en otra habitación se encuentra otra persona (y) y una máquina (M) que se
supone inteligente, la persona X tiene comunicación tanto la persona Y y la máquina M a través de una interface. La persona X formula
preguntas que son contestadas por la persona Y y la máquina M. En el momento que la persona X no puede distinguir las respuestas de la
persona Y y de la máquina M, se dice que la máquina M tiene un comportamiento inteligente.
En Junio del 2005 cuando se realiza un concurso organizado por la Real Society recordando el 60° aniversario de la muerte de Turing, una
máquina conocida como “bot conversacional Eugene Goostman” pasa con éxito el test de Turing logrando convencer al 33% de un jurado
que tenía el comportamiento de un adolescente de 13 años.
Problemas clásicos
Fuente: https://deista.wordpress.com/2010/05/09/juego-
matematico-las-torres-de-hanoi/
En los cursos universitarios se han propuesto un conjunto de problemas denominados clásicos tales como: Las N
reinas, Las torres de Hanoi, Los misioneros y los caníbales., El problema de los baldes, El problema del agente
viajero, El problema del granjero, etc.
Tenemos 2 baldes de agua vacíos, uno con capacidad de 6 galones y otro con capacidad de 8 galones. Teniendo en
cuenta que podemos llenar cada uno de los baldes como queramos, ¿ Cómo podríamos llenar el balde de 8
galones exactamente hasta la mitad? (Supongamos que no existe ninguna marca de medidas en los baldes).
7 Llene el balde de 8 gal. con el de 6 gal. El balde de 8 gal. no está lleno y el de 6 gal.
no está vacío. El contenido conjunto es >= 8
gal
8 Llene el balde de 6 gal. con el de 8 gal. El balde de 6 gal. no está lleno y el de 8 gal.
no está vacío. El contenido conjunto es >= 8
gal
1.6 Introducción a los sistemas basados en conociminento
Normalmente cuando se presenta un tema lo primero que hacemos es definirlo y luego realizamos ampliaciones, proponemos esquemas,
ejemplos, etc. para enriquecer las definiciones, sin embargo en este caso iniciamos proponiendo un conjunto de términos que en conjunto
dan forma a los sistemas basados en conocimiento.
Las personas tenemos dominio sobre ciertos aspectos del conocimiento que nos permite resolver problemas en un determinado campo o
disciplina. Por ejemplo, el profesional médico resuelve problemas de salud, el profesor trata el problema de aprendizaje, en este sentido, a la
persona que demuestra los conocimientos para resolver determinado tipo de problemas la denominamos experto. Este experto proporciona
el conocimiento inicial necesario al sistema artificial para tomar decisiones.
Cuando se desarrollan los sistemas tradicionales, se escriben programas que son una secuencia de instrucciones de procesamiento a
través de los cuales determinado usuario representa el conocimiento y además define cómo interacciona con el conocimiento previo para
realizar actividades de toma de decisiones. Sin embargo en los sistemas basados en conocimientos, el usuario a quien denominamos
experto define el conocimiento y el sistema lo integra directamente en la explicación pertinente, la programación no se hace directamente
sobre el conocimiento, sino más bien se programan algoritmos de inferencia a los que denominamos motor de inferencias que permiten tratar
el conocimiento desde una base de datos.
A partir de la década del 70 se inicia el estudio de la ingeniería del conocimiento, que comprende el diseño y construcción de sistemas
basados en conocimiento. Normalmente la programación tradicional se ha desarrollado a través de la ingeniería de software. Para tratar
temas del conocimiento usando tecnologías computacionales se requiere un nuevo enfoque por cuanto:
2. El razonamiento y respuesta proporcionado por las personas no siempre es el mismo y muchas veces no se puede precisar.
4. Los métodos tradicionales de desarrollo de software no son aplicables al tratamiento del conocimiento.
5. Los proyectos de desarrollo requieren la participación del “experto” en los proyectos de desarrollo.
Podemos plantear dos paradigmas que orienten el estudio en nuestro curso, el primero proporciona una orientación estructural-cognoscitiva y
el segundo formula una orientación funcional-conductista.
Los sistemas basados en conocimiento se desarrollan con una orientación cognoscitiva y se caracterizan por la capacidad de “saber” o
conocer sobre un tipo de problemas, más que capacidades intelectivas generales. Separa el conocimiento codificado en la máquina (base de
conocimientos) de los mecanismos deductivos (motor de inferencia).
A partir del segundo paradigma (orientación funcional-conductista) podemos definir otro tipo de sistemas que denominamos sistemas
expertos, que se caracterizan por emular la actividad de un experto humano cuando resuelve un problema en una área muy concreta, es
capaz de adquirir experiencia y puede conversar con los usuarios explicando su razonamiento.
En la siguiente figura se muestran las relaciones entre los paradigmas planteados.
Aplicaciones de los sistemas basados en conocimiento
Monitorización y control de procesos físicos para la detección temprana de anomalías en tiempo real.
Sistemas de apoyo en la planificación articulando coherentemente objetivos complejos e interrelacionados y las acciones que
optimicen el logro de los mismos teniendo en cuenta las dependencias y restricciones existentes.
Sistema de apoyo a la gestión del conocimiento poniendo a disponibilidad de los usuarios el conocimiento requerido en función de
sus intereses con acciones de recomendación y de ayuda.
1.7 Estructura de los sistemas basados en conocimiento
La interfaz de usuario permite la interacción entre el sistema y el usuario, en la actualidad se implementan interfaces gráficas,
reconocimientos de patrones, interpretación de lenguaje natural. De igual manera la adquisición del conocimiento permite interactuar al
experto con el ingeniero del conocimiento y el sistema usando también interfaces emulando comportamiento humano.
El sistema contiene un conjunto de técnicas y algoritmos para implementar el motor de inferencias que da tratamiento a la información
contenida en la base de conocimientos para formular soluciones y el generador de explicaciones que presenta en forma ordenada la
justificación de las respuestas en base a los conocimientos analizados, los mismos que se implementan en reglas, macros y hechos.
En la memoria de trabajo se almacenan variables que permiten la implementación de los algoritmos y módulos del sistema.
Planteamos ahora una segunda versión de sistema basado en conocimientos definiendo sus requisitos:
Para desarrollar un sistema basado en conocimientos con los requisitos anteriormente planteados proponemos los siguientes módulos:
Módulo de razonamiento.
Interfaz de interacción.
Módulo de Aprendizaje
Actividades de análisis y comprensión
Cómo hemos comentado no existe una definición universal de la inteligencia artificial, sin embargo podemos expresar un concepto
que nos permita definir los objetivos y metodologías usadas durante nuestro curso, asimismo te invitamos a responder algunas
preguntas sobre la estructura de un sistema basado en conocimientos.
1. Una definición fue presentada en el documento: “la IA es la rama de la ciencia de la computación que
estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación
disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para
lograr esa resolución.”
4. El motor de inferencias permite dar tratamiento a la información contenida en una base de conocimientos.
5. Todo sistema basado en conocimiento tiene una interfaz (en la actualidad con características gráficas o
visuales) para comunicar al sistema con el ser humano.
Después de haber observado detenidamente los videos responde a las siguientes preguntas:
Pregunta de Selección Múltiple
Axón.
Incorrecto
Sangre.
Correcto
Leucocitos.
Correcto
Dendritas.
Incorrecto
Células madre.
Correcto
La neurona artificial propuesta por McCullock-Pitts contiene Axón, dendritas, cuerpo y sinapsis.
Arturito.
Robocop.
Boris.
Eugenne.
Asimo.
Bibliografía
2. Russell y Norving (2004). Inteligencia artificial: Un enfoque moderno. Pearson Education S.A. 2da edición. España. Disponible en la
Biblioteca de la USS.
Ponemos a tu disposición y te invitamos a revisar dos interesantes documentos que te ayudaran a reforzar y ampliar los temas que
hemos estudiado.
URL: http://www.comoves.unam.mx/numeros/articulo/2/la-inteligencia-artificial-hacia-donde-nos-lleva
Breve descripción:
El documento presenta un análisis sobre la capacidad de inteligencia artificial que pueden adquirir las máquinas, incluye una
entrevista al Dr. Ismael Espinoza del Laboratorio de Cibernética de la UNAM quién analiza la tendencia en la disciplina y el impacto en
las personas.
…………………………………………………………………………………………………………………….…………..
URL: https://www.bbvaopenmind.com/articulo/el-futuro-de-la-inteligencia-artificial-y-la-cibernetica/?fullscreen=true
Breve descripción:
El autor Kevin Warwick, Profesor de cibernética de la Universidad de Reading, analiza los cyborg que son seres humanos que han
recibido implantes de componentes electrónicos para realizar tareas propias de los humanos, por ejemplo visión, audición,
locomoción, etc.
Conclusiones de la sesión
Para nuestros fines de aprendizaje la IA busca realizar programas de computador que evidencien un comportamiento
humano para resolver determinados problemas.
Existen varias posturas de diferentes autores para clasificar los hitos históricos de la IA.
Se reconocen autores que han apoyado el desarrollo de la IA a Turing, Minsky, McCarthy, Rossenblant, entre otros.
Los sistemas basados en conocimientos presentan estructuras bien definidas, por lo que pueden ser programados en
computadores.
Los sistemas expertos, generan soluciones y son capaces de aprender, justificar sus resultados e interactuar con seres
humanos.
Metacognición
Las siguientes preguntas te ayudarán a reflexionar sobre tus propios aprendizajes, es un ejercicio recomendado pata razonar e
identificar nuestro esfuerzo intelectual, la finalidad es guiar nuestras acciones y procesos mentales.