Capítulo 5: Método Monte Carlo

Ao contrário do DP, não precisamos conhecer completamente o modelo do ambiente, pois o MC precisa apenas de experiência, que são os dados simulados. O método de Monte Carlo é encontrar o retorno médio de todos os episódios, portanto é um cenário episódio por episódio.

1.Monte Carlo Prediction

A avaliação da política do método Monte Carlo da primeira visita é calcular a média dos retornos acumulados após o primeiro estado observado por incontáveis ​​episódios até convergir para o valor desejado.

 

 O diagrama de backup do DP mostra todos os possíveis estados sucessores, e o MC possui apenas o episódio amostrado; o DP inclui apenas uma transferência em uma etapa e o MC vai até o final do episódio. Simplificando, a estimativa do DP do valor atual da função de estado deve ser baseada no valor subseqüente do estado, e cada estado do MC é independente um do outro ------- DP requer bootstrap, mas o MC não.

 

 

 2.Monte Carlo Control

 

   Aqui temos duas suposições: uma é o início exploratório do episódio, mas isso pode ser feito por meio de episódios intermináveis ​​e avaliação de políticas. Para a segunda suposição, existem duas soluções.

 1. Supondo que teta, quando for menor que teta, podemos garantir a convergência; 2. Em vez de esperar pela conclusão da avaliação da política e depois atualizar, mas usando o método iteraion de valor, a cada iteração, ele é atualizado uma vez.

 

  Como o método MC não pode esperar até o final do episódio para realizar a avaliação e o aprimoramento da política; mas, em alguns cenários, um episódio levará muito tempo ou não será encerrado, portanto, isso também é uma desvantagem do MC. Além disso, como o MC calcula a média dos retornos das amostras para os episódios, isso fará com que algumas das cenas que ocorreram sejam usadas diretamente em outros lugares, e a aplicabilidade não seja forte.

3. Remova os Exploradores Iniciados

  Esta é uma explicação para outra hipótese em 2. Quando não há Iniciação Exploradora no sistema, algumas ações podem não ser selecionadas, portanto ocorrerá um erro ao avaliar Q (s, a ).

A solução é usar a política epsilon-gananciosa.Neste caso, mesmo se não houver Exploração inicial, haverá uma probabilidade de que o epsilon possa escolher outras ações, o que pode resolver a ação que sempre escolhe o máximo de Q (s, a) Ótimo) problema.

 

 4. Previsão fora da política via amostragem de importância

  A política introduzida anteriormente, porque a maior parte das políticas que obtém finalmente é a política gananciosa, que ainda não é a melhor política gananciosa. Se queremos obter a melhor política gananciosa, precisamos de algo fora da política. O uso de fora da política exige que avaliação e aprimoramento não sejam a mesma política; portanto, você deve usar a amostragem de importação para converter os dados amostrados na política de avaliação em dados da política de melhoria. Em termos simples, são necessárias duas políticas, uma é a política de destino (aprender) e a outra é a política de comportamento (dados).

4.1 amostragem por improtância ponderada sam amostragem comum

  Existem dois tipos de amostragem de importação aqui, uma é a amostragem comum e a outra é a amostragem por improtância ponderada.

  A diferença é: ponderado é tendencioso e baixa variância; ordinário é imparcial e alta variância. Na prática, prefiro usar o método ponderado.

5. controle de MC fora da política

  Em geral, os dados da política de comportamento são usados ​​para obter a política ideal π de acordo com Q (s, a) usando ganancioso. Deve-se notar aqui que a política de b deve conter π, ou seja, a ação selecionada em π, b também pode ser selecionada.

 

6. Resumo

1. As 3 vantagens do MC para DP

(1) Não é necessário modelo de ambiente

(2) modelo de simulação ou amostra pode ser usado

(3) Para parte dos dados, podemos analisar apenas a parte útil dos dados e usar o método MC, que é muito eficiente.

2. Problemas com MC

  Como é necessário iniciar a exploração, quando essa suposição for removida, é provável que apenas as ações atualmente amostradas sejam selecionadas e, em seguida, ações melhores nunca sejam selecionadas. Portanto, a política ideal obtida pelo MC dentro da política é a política epsilon-gananciosa.

 

 

 

  

 

Acho que você gosta

Origin www.cnblogs.com/xsy123/p/12730493.html
Recomendado
Clasificación