Sunteți pe pagina 1din 7

INTELIGENCIA ARTIFICIAL

PROFESOR: Yuri Ccoica M.


TEMA: Aprendizaje
Automtico
ALUMNOS: Juan Valdeiglesias
Edgar Valqui Bazn
Napolen Alva Vsquez
Cesar Muoz Escalante
Jose Quispe Pilco
Elizabeth Segura Bonilla
Manuel Vera Quintana
Dennis Uriarte
Alcides Paquiyauri hoque
Yoseph Sermeo Palacios
CICLO: VIII
TURNO: Noche

2017
ALGUNAS COSAS TILES QUE SABER ACERCA DEL APRENDIZAJE AUTOMTICO

Autor del artculo: Pedro Domingos, Departamento de Ciencias de la Computacin e


Ingeniera - Universidad de Washington Seattle

A modo de introduccin, inferimos que el autor quiere dejar en claro que si bien en el aprendizaje
automtico las mquinas, por medio de los algoritmos, pueden averiguar o aprender cmo se
pueden realizar tareas generalizando a partir de la experiencia en las tareas realizadas, logrando
adems que estas sean ms factibles y rentables. Como resultado de este aprendizaje aplicable,
no solo al campo de la computacin, sino tambin en otros campos, pero que si bien este
conocimiento y desarrollo es posible, debido a su avance y estudio; afirma que tambin requiere
algo de magia que como es evidente no es posible encontrarla en los libros de texto.

Basndose en esta afirmacin, que desde nuestro punto de vista es bastante sui gneris, pero que,
metafricamente hablando, linda en la racionalidad del desarrollo de la tecnologa, sobre todo en
esa tecnologa del futuro en donde la era de la singularidad est a tiro de piedra, y cuya inminencia
es inevitable, es que Pedro Domingos desarrolla este artculo en el que resume doce lecciones
claves para el aprendizaje automtico, que en sus procesos de investigacin profesionales del
tema, aprendi.

LEARNING=REPRESENTACIN + EVALUACIN + OPTIMIZACIN

Hoy en da existen muchos algoritmos de Machine Learning y se puede decir que an estn siendo
mejorados y tambin se desarrollan nuevos cada ao, pero nada cambia que cada algoritmo tenga
tres elementos fundamentales que los define como un buen algoritmo. Estos elementos son los
siguientes:

Representacin: Cmo representamos el conocimiento. Esto tal vez sea la pieza clave del
Machine Learning, muchos ejemplos usan arboles de decisiones, conjunto de reglas, instancias,
modelos grficos, redes neuronales, etc. La representacin es un elemento clave para empezar
con Machine Learning.

Evaluacin: El camino para realizar la evaluacin de programas candidatos, es hacer uso de


una hiptesis. Algunas formas de realizar esto es con los mtodos: accuracy, prediction and recall,
squared error, likelihood, cost, margin, entre otros. Los mtodos mencionados permiten tener un
indicador claro de cmo se comporta el algoritmo que se ha desarrollado para hacer un aprendizaje
automtico sobre nuestros datos. As que, es importante usarlos para tener control sobre ellos.

Optimizacin: La forma en cmo los programas candidatos son conocidos como proceso de
bsqueda. Por ejemplo, optimizacin combinada, optimizacin convexa, optimizacin con
restricciones, entre otras.
La eleccin de optimizacin de la tcnica es clave para lograr la eficiencia y ayuda a determinar
que el clasificador produce si la funcin de evaluacin tiene ms de una ptima.

ES LA GENERALIZACIN QUE CUENTA

El objetivo ms importante del aprendizaje automtico es generalizar ms all de los ejemplos en


el conjunto de entrenamiento, solamente aprender el conjunto de entrenamiento es trivial e
insuficiente, a menudo haciendo bien en el conjunto de entrenamiento, es un mal indicador de
rendimiento fuera del conjunto de formacin. La generalizacin es la nica manera de etiquetar los
insumos que no estn en el conjunto de entrenamiento.

El fin fundamental, es generalizar ms all del conjunto de entrenamiento. Utilizar el error


de formacin como un sustituto de lo real, por lo que no puede necesitar para optimizarlo
completamente.

DATOS SOLOS NO ES SUFICIENTE.

La generalizacin, que es la meta, tiene una consecuencia importante:


Los datos por s solos no son suficientes, no importa cunto , Cada alumno
debe incorporar algn conocimiento ms all de los datos que se dan para
poder generalizar ms all de ella. Por suerte, las funciones que queremos
aprender en el mundo real no se dibujan uniformemente del conjunto de todas
las funciones posibles matemticamente. De hecho, suposiciones muy
generales como suavidad, a menudo son suficientes para hacerlo muy bien, y
esto es gran parte de por qu el aprendizaje automtico ha tenido tanto xito.
En retrospectiva, la necesidad de conocimiento en el aprendizaje no debera
ser sorprendente. Aprender a mquina no es magia; no se puede conseguir
algo de la nada. Lo que hace es obtener ms de menos. La programacin,
como toda la ingeniera, es combinar conocimiento con datos para hacer crecer
programas.

OVERFITTING TIENE MUCHAS CARAS

El sobreajuste (overfitting),es el efecto de sobreentrenar un algoritmo de aprendizaje con unos


ciertos datos para los que se conoce el resultado deseado. El algoritmo de aprendizaje debe
alcanzar un estado en el que ser capaz de predecir el resultado en otros casos a partir de lo
aprendido con los datos de entrenamiento, generalizando para poder resolver situaciones distintas
a las acaecidas durante el entrenamiento. La utilizacin exclusiva del error del conjunto de
entrenamiento puede conducir a resultados engaosos. Estos errores pueden conducir a un
fenmeno de sobreajuste (overfitting), en el cual el modelo se ajusta muy bien a los datos
existentes pero tiene un pobre rendimiento para predecir nuevos resultados.
El conjunto de entrenamiento contiene patrones tiles, pero tambin ruido: regularidades
accidentales debidas al conjunto de datos particular utilizado (error de muestreo). Cuando
ajustamos la red a los datos del conjunto de entrenamiento, no podemos diferenciar las
regularidades reales de
las debidas al conjunto de entrenamiento utilizado, por lo que corremos el riesgo de
sobreaprender (overfitting).
Algunas Estrategias para evitar el sobre aprendizaje seria el Obtener ms datos y Ajustar los
parmetros de la red para que tenga la capacidad adecuada.
A la vez se hace mencin que al confundir seal con ruido se desarrolla un modelo predictivo y se
ajusta a los datos que se tiene, pero en el afn de afinar el modelo al mximo, acabamos
ajustando el modelo a las imperfecciones de los datos que tenemos, empeorando nuestra
capacidad predictiva.
En conclusin un modelo predictivo debe capturar la esencia del fenmeno que describe, nada
ms.

LA INTUICIN FALLA EN ALTAS DIMENSIONES

El segundo gran reto despus de sobreajuste a menudo se llama la maldicin de la


dimensionalidad. En trminos generales, como el nmero de caractersticas en un conjunto de
datos aumenta exponencialmente y se convierte en ms difcil de entrenar un modelo que
generaliza bien, porque el conjunto de datos representa una pequea fraccin del espacio de
entrada total. Lo que es peor, medidas de similitud no pueden discriminar efectivamente entre los
ejemplos de grandes dimensiones, debido a las dimensiones muy altas todo se ve igual. Esta
visin particular, destaca la observacin general de que nuestra intuicin falla en las dimensiones
elevadas, porque nuestra tendencia es dibujar comparaciones con lo que sabemos, es decir, el
espacio tridimensional. Cuando tales comparaciones no son apropiados. La leccin aqu es ser
muy cauteloso acerca de la adicin de caractersticas imprudentemente. Adems, el empleo de
tcnicas de seleccin de buena caracterstica, es probablemente muy importante para la
construccin de un modelo que generaliza as.

LAS GARANTAS TERICAS NO SON LOS QUE PARECEN

Qu hacer frente a los clasificadores que no precisa lo suficiente?


Diseo de un mejor aprendizaje algoritmo
Recibir ms datos
En la mayora de la informtica los recursos limitados son:
Tiempo
Memoria
En la mquina de aprendizaje hay un tercero, formacin de datos. Todo. esto conduce a una
paradoja.
Aquella cuya representacin tiene un tamao fijo, al igual que lineal de clasificadores
Cuya presentacin crece con los datos.
La competencia humana seguir siendo una parte clave de los algoritmos durante el futuro.
El esfuerzo humano guardados y conocimientos adquiridos, aunque ms difcil para medir, a
menudo son ms importantes.

DATOS SOLOS NO ES SUFICIENTE

Los datos por s solos no son suficientes, no importa cunto tenga. Como dira el filsofo David
Hume hace ms de 200 aos, pero incluso hoy en da, muchos errores en el aprendizaje de la
mquina provienen de fallar para apreciarlo. Cada alumno debe incorporar algn conocimiento
supuestos ms all de los datos que se dan para generalizar ms all de ella. Esto fue formalizado
por Wolpert en su famoso "no Free lunch" teoremas, segn el cual no el alumno puede superar las
suposiciones al azar sobre todas las funciones posibles para ser aprendido. En retrospectiva, la
necesidad de conocimiento en el aprendizaje no debera ser sorprendente. Aprender a mquina no
es magia; No puede conseguir algo de la nada. Tenemos que combinar conocimiento con datos
para hacer crecer programas.

MS DATOS SUPERA UN ALGORITMO MS INTELIGENTE

Aun cuando en un inicio ms datos significa que se pueden aprender clasificadores ms complejos,
en la prctica se terminan los ms simples, puesto que los complejos tardan demasiado en
aprender
Parte de la razn por la que se utilizan algoritmos ms inteligente y tiene un costo menor es que,
en una primera aproximacin, todos hagan lo mismo. Esto se evidencia sorprendentemente,
cuando se consideran conjuntos de reglas r redes neuronales.
Los estudiante, suelen comparase en medidas de precisin y costo computacional, pero el ahorro
humano y comprensin adquirida, aunque es ms difcil de medir, suelen ser ms importantes.
Las organizaciones que aprovechan al mximo el aprendizaje automtico son aquellas que tienen
en su lugar una infraestructura que hace que la experimentacin con estudiantes diferentes,
fuentes de datos y problemas de aprendizaje sea fcil y eficaz y donde haya una estrecha
colaboracin entre expertos en aprendizaje de mquinas y dominios de aplicaciones.
APRENDE MUCHOS MODELOS, NO SLO UNO

Aprender muchos modelos, no slo uno, es el principio del xito del aprendizaje esperado. En todo
el mundo hay quienes se esfuerzan en sobresalir, tratando de ser el mejor en su rama. Es as que
se seleccionara seguramente aquel que se basara en varios modelos diferentes de estudio y
estrategia, combinando variables y otros.
Un ejemplo claro, es el de NETFLIX, un sistema de servicio de video a nivel mundial.
Diversas empresas e interesados, competan por lograr xito en este rubro, cada quien con sus
propias iniciativas tcnicas y logsticas, pero se tuvo que acudir a la unin de ms de uno de estos
interesados, para lograr formar un equipo lo suficientemente profesional y competente, y as formar
el xito de la firma NETFLIX.

LA SIMPLICIDAD NO IMPLICA PRECISIN

Elegir el ms simple de dos clasificadores con el mismo error de entrenamiento es una buena
regla. El clasificador ms simple no siempre tiene la mejor precisin en el conjunto de datos de
prueba.
Una perspectiva quizs ms interesante es considerar la complejidad en trminos del tamao del
espacio de hiptesis para cada clasificador. Ese es el espacio de posibles clasificadores que cada
algoritmo podra generar. Un mayor espacio es probable que se muestre menos y el clasificador
resultante puede ser menos probable que haya sido overfit a la formacin de datos.
La conclusin es que las hiptesis ms simples deben ser preferidas porque la sencillez es una
virtud en s misma, no debido a una hipottica conexin con la exactitud.

REPRESENTABLE NO IMPLICA APRENDIZAJE

Relacionados con escoger algoritmos favoritos, los practicantes pueden caer en la trampa de
escoger representaciones favoritas y justificarla con afirmaciones tericas de aproximacin
universal (por ejemplo, pueden usarse para aproximarse a cualquier funcin objetivo arbitraria).
Dados los datos finitos, el tiempo y la memoria, los estudiantes estndar pueden aprender slo un
minsculo subconjunto de todas las funciones posibles, y estos subconjuntos son diferentes para
los alumnos con diferentes representaciones.
Centrarse en el problema de la funcin objetivo se puede aprender, no puede ser representado.

CORRELACION NO IMPLICA CAUSALIDAD


El punto de que la correlacin no implica causalidad se hace tan a menudo que tal vez no vale la
pena ensuciar. Pero incluso aunque los estudiantes del tipo que hemos estado discutiendo slo
pueden aprenden correlaciones y sus resultados son a menudo tratados como relaciones causales.
No est mal? Si es as, entonces por qu La gente lo hace?
Si encontramos que la cerveza y los paales se compran a menudo juntos en el supermercado,
entonces quizs poner cerveza junto a la seccin de paales incrementa las ventas, muchos
investigadores creen que la causalidad es slo una ficcin sea o no que la causalidad realmente
existe es una pregunta filosfica sin respuesta pero los puntos prcticos para los aprendices son:
Primero lugar: si los llamamos o no "causales", nos gustara predecir los efectos de nuestras
acciones, no slo las correlaciones entre variables observables.
Segundo lugar: si puede obtener datos (por ejemplo, mediante la asignacin aleatoria de
visitantes a versiones de un sitio web), entonces por todos los medios hacerlo.

CONCLUSIN:

Consideramos que no es necesario incorporar una conclusin por cada una de las doce
lecciones, por el contrario, creemos que es suficiente una sola que englobe a todas y que
desde nuestro punto de vista, nos describa como leccin aprendida. En ese sentido,
evidenciamos que el aprendizaje de las mquinas, es un presente inmediato, y que las
teoras y su desarrollo en este aspecto, no tendrn que dedicarse a vencer a los humanos,
sino a trabajar con ellos.

S-ar putea să vă placă și