Documente Academic
Documente Profesional
Documente Cultură
OtherSensorimotorDisruption
Paolo (2000)
Extendedhomeostaticadaptationmodelwithmetabolic
causationinplasticitymechanismtowardconstructinga
dynamicneuralnetworkmodelformentalimagery
Lizuka et. al. (2013)
OvercomingDeceptioninEvolutionofCognitiveBehaviors
Lehman e Miikkulainen (2014)
Behaviorbelievabilityinvirtualworlds:agentsactingwhen
theyneedto
Avradinis e Anastassakis (2013)
ConstructingCompetitiveandCooperativeAgentBehavior
UsingCoevolution
Rawal et. al. (2010)
AnExperimentalStudyoftheEmergentBehaviorsofSelf
OrganizedAgentCommunities(OK)
Wang e Zhu (2007)
OnSeeingRobots(OK)
Mackworth (1992)
ALayeredApproachtoLearningClientBehaviorsinthe
RoboCupSoccerServer(OK)
Stone e Veloso (1998)
Stone e Veloso (1998) utilizaram aprendizagem de mquina como uma
ferramenta para a construo de clientes para servidores de futebol de rob.
A abordagem utilizada consiste na construo de camadas de
comportamentos cada vez mais complexos, comeando dos comportamentos
mais simples. Os autores descrevem dois nveis de comportamento
aprendidos. Em primeiro lugar, os clientes aprendem habilidades de baixo
nvel, como controlar a bola de forma eficaz. Em seguida, usando essa
estabilidade aprendida, eles aprendem uma habilidade de nvel superior que
envolve vrios jogadores. As habilidades aprendidas mostraram ser
aplicveis s situaes do jogo.
EvolvingKeepawaySoccerPlayersthroughTask
Decomposition(OK)
Whiteson et. al.( 2005)
Whiteson et. al (2005) analisaram o impacto do tradeoff resultado da
codificao de conhecimento humano para auxiliar na aprendizagem de subtarefas resultantes da decomposio de tarefas de controle complexas. O
tradeoff surge porque a codificao do conhecimento humano requer esforo
manual e pode restringir incorretamente o tamanho do espao de hipteses
ou levar a aprendizagem para distante da soluo tima. Para examinar o
impacto desse tradeoff, os autores exploram um espao definido por duas
dimenses: (1) quanta assistncia humana dada e (2) quo difcil a tarefa .
Para isso, um algoritmo de aprendizagem por neuro-evoluo melhorado
com trs diferentes mtodos para aprender os componentes resultantes da
decomposio de tarefas.
1) Co-evoluo: principalmente no auxiliado por conhecimento
humano.
2) Aprendizagem em camadas: altamente auxiliado por conhecimento
humano.
3) Aprendizagem em camadas concorrentes: uma nova combinao
dos dois primeiros que tenta explorar conhecimento humano enquanto
retm alguma flexibilidade da co-evoluo.
Duas verses do problema keepway (um subproblema de futebol de robs)
so usados para avaliao. Os resultados obtidos confirmam que, dado uma
EvolvingMultimodalNetworksforMultitaskGames(OK)
Schrum e Miikkulainen (2012)
MultiagentLearningthroughNeuroevolution(Para
introduo)
Miikkulainen et. al. (2012)
ConnectingInteractiveArtsandVirtualRealitywith
Enaction(OK)
Loor et. al.(2014)
EvolvingMultimodalBehaviorinNPCs
Schrum e Miikkulainen(2009)
RealTimeNeuroevolutionintheNEROVideoGame
Stanley et. al.(2005)
Topologies (rtNEAT), e descreve como rtNEAT foi usada para o vdeo game
NeuroEvolving Robotic Operatives (NERO). Este jogo representa um novo
gnero de jogo de aprendizagem de mquina onde o jogador treina agentes
em tempo real para realizar tarefas desafiantes em um ambiente virtual.
Prover a leigos a capacidade de efetivamente treinar agentes em tempo real
sem nenhum conhecimento a priori de Inteligncia Artificial ou aprendizagem
de mquina tem amplas implicaes, tanto na promoo da inteligncia
artificial quanto em fazer suas realizaes disponveis ao grande pblico.
AnalysisofEmergentPropertiesinaHybridBioinspired
ArchitectureforCognitiveAgents
Romero e Jimenez (2007)
Hybridizationofcognitivemodelsusingevolutionary
strategies
Lopez et. al. (2009)
testada em um ambiente de animao utilizando uma plataforma multiagente, onde vrias propriedades emergentes de auto-organizao surgiram.
Anevolutionarybehavioralmodelfordecisionmaking
Lpez (2011)
CreatingIntelligentAgentsinGames
Miikkulainen (2006)
Game playing
tem sido um tema central em inteligncia artificial.
Considerando que as primeiras pesquisas focaram na utilizao de busca e
lgica em jogos de tabuleiro, aprendizagem de mquina em jogos est sendo
objeto de muitas pesquisas recentes. Em vdeo games, o comportamento
inteligente pode ser naturalmente capturado por meio de interaes com o
ambiente e tcnicas biologicamente inspiradas, tais quais computao
evolucionria, redes neurais e aprendizagem por reforo so bem adequadas
para estas tarefas. Em particular, neuro-evoluo, isto , a construo de
agentes com redes neurais artificiais por meio de evoluo simulada, tem se
mostrado muito promissor em muitos domnios de jogos. Baseado em
feedback distribudo, comportamentos complexos podem ser descobertos por
agentes simples ou por times de agentes, mesmo em tempo real. Tais
tcnicas podem permitir a construo de gneros de vdeo game
AComparativeStudyofNEATandXCSinRobocode
Nidorf e Barone (2010)
Evolutionofneuralcontrollersforcompetitive
gameplayingwithteamsofmobilerobots
Nelson et. al. (2004)
Nelson et. al. (2004) desenvolveram um treinamento evolucionrio de
controladores baseados em redes neurais artificiais para jogos de times
competitivos desempenhando comportamentos para equipes robs mveis
reais. Essa pesquisa enfatizou o desenvolvimento de mtodos para
automatizar a produo de comportamentos de controladores de robs
comportamentais. Nelson procurou mtodos que no requeriam um projetista
humano para definir comportamentos intermedirios para uma tarefa
complexa de robs. O trabalho fez uso de colnia de robores moveis e um
acoplamento ntimo de ambiente de treinamento simulado baseado em
computador. A aquisio de comportamento em um sistema robtico
evolucionrio foi demonstrado utilizando uma verso robtica do jogo
Capture a Bandeira.
Neste jogo, jogado por dois times de robs
competindo, cada time tenta defender seu prprio gol enquanto tenta atacar o
outro gol defendido pelo outro time. Controladores neurais de rob foram
selecionados com base em suas taxas de vitria e de derrota ao longo de um
torneio. Na sequncia de um torneio, os controladores neurais foram
classificados competitivos de acordo com o nmero de jogos que ganharam a
populao foi propagada usando uma estratgia de mutao e de
substituio. Depois de vrias centenas de geraes, os controladores com
melhores desempenhos foram transferidos para equipes de robs mveis
reais, onde eles apresentaram comportamentos similares aos observados em
simulao incluindo navegao bsica, a capacidade de distinguir entre
diferentes tipos de objetos e comportamentos de tendncia de gol.
EvolvingreactiveNPCsfortherealtime
simulationgame
Hong (2005)
Inteligncia Artificial para jogos tem ganho destaque recente, mas o seu
projeto manual tem um custo muito alto. Um algoritmo evolutivo descobriu
Theembodiedandsituatednatureofcomputer
gameplay
Rambusch (2006)
Os jogos de computadores esto sendo abordados de uma ampla gama de
perspectivas, mas a atividade de jogar jogos, com o jogador e suas aes em
foco, at agora, no recebeu muita ateno da pesquisa acadmica.
Abordando jogos a partir de uma perspectiva da cincia cognitiva, no entanto,
Rambusch (2006) argumenta que as teorias sobre cognio incorporada e
situada proveem uma forte base sobre a pesquisa nessa questo em
particular, pois o jogo uma atividade socialmente encarnada e situada,
moldada pela experincia corporal do jogador e suas interaes com o jogo.
Evolvingteambehaviorswithspecialization
Nitschke et. al. (2012)
Nitschke et. al. (2012) avaliaram um metodo de cooperao coevolutivo chamado de Collective Neuro-Evolution (CONE). Esse
metodo foi criado para resolver tarefas de comportamentos
coletivos e aumentar o desempenho de tarefas por meio de
facilitao de especializao comportamental em times de agentes.
Especializao e utilizada como um mecanismo de resoluo de
problemas e sua emergncia e guiada e regulada pelo CONE. CONE
e avaliado comparativamente com os metodos relacionados em
robtica evolucionria
na tarefa de perseguio-evaso. Os
resultados indicam que CONE e apropriado para a evoluo de
comportamentos especializados. A interao de comportamentos
Coevolutionofrolebasedcooperationinmulti
agentsystems
Yong e Miikkulainen (2007)
Em determinadas tarefas, tais como perseguio e fuga, vrios agentes
precisam coordenar o seus comportamentos para alcanarem um objetivo
comum. Uma questo interessante : como pode o melhor comportamento
evoluiu? Uma abordagem poderosa controlar os agentes com redes
neurais, utilizar co-evoluo em subpopulaes separadas, e test-las aos
mesmo tempo em uma tarefa comum. Neste trabalho, um mtodo chamado
de ESP (Enforced Subpopulations) Multi-agente, proposto e demonstrado
em uma tarefa de captura de presas. Em primeiro lugar, a abordagem
mostrada mais eficiente do que a evoluo de um nico controlador central
para todos os agentes. Em segundo lugar, concluiu-se que a cooperao
mais eficiente atravs atravs de respostas baseadas em funes para o
meio ambiente, ao invs de comunicao direta entre os agentes. Juntos,
esses resultados sugerem que a cooperao baseada em funes uma
estratgia eficaz em certos domnios multiagentes.
Neuroevolutionforadaptiveteams
Bryant e Miikkulainen (2003)
Bryant e Miikkulainen (2003) apresentam um sistema de agentes
homogneos com polticas de controle idnticas, mas que adotam papeis
heterogneos adequados em seu seus ambientes. Segundo os autores, a
abordagem apresentada tem aplicaes em domnios como os jogos de
computadores e pode ser desenvolvida por meio de neuro-evoluo. A
abordagem foi experimentada em um ambiente de estratgia simples,
embora cenrios mais complexos tenham sido discutidos.
CooperativeCoevolution:AnArchitecturefor
EvolvingCoadaptedSubcomponents
Modelinghabitsasselfsustainingpatternsof
sensorimotorbehavior
Barandiaram e DiPaolo (2011)
Tendncias recentes em cincia cognitiva comprometeram seriamente a
noo de representao (simblica ou sub-simblica) um bloco um bloco de
construo para construo e modelagem terica em cincia cognitiva. A
atual falta de um bloco de construo claro para abordagens dinmicas
cognitivas, situadas e incorporadas clama para uma reavaliao do conceito
de hbito desenvolvido pelos primeiros psiclogos continentais pragmticos e
filsofos. Ao passo que abordagens da neurocincia computacional
contempornea e do aprendizado de mquina ainda sustentarem uma
concepo behaviorista (associao probabilstica) de hbito, Barandiaram e
DiPaolo (2011) propem uma noo rica da modelagem de hbitos como um
padro neurodinmico comportamental autossustentvel onde uma
plasticidade dependente de atividade mostra uma prolongada estrutura
temporal. Este ponto ilustrado com um trabalho sobre robtica evolutiva, a
implementao de uma combinao de plasticidade Hebbiana e
homeosttica. No modelo robtico dos autores, este mecanismo capaz de
gerar desenvolvimento sensrio, reforo de aprendizagem e re-habituao
espontnea s perturbaes sensrio-motoras. Os autores defendem que
uma noo mais rica de hbito pode contribuir significativamente para os
fundamentos de cincias cognitivas, abrindo caminho para a modelagem de
fenmenos psicolgicos mal compreendidos.