Games104 Introduction to Modern Game Engines - Lecture17 Game Engine Gameplay System Basics_Advanced AI

1 Hierachical Tasks Network

Hierarchical Task Networks: Starting from Task Goals

在这里插入图片描述
Core idea: set a plan, several completed sub-tasks.
在这里插入图片描述

1 HTN frame

在这里插入图片描述

在这里插入图片描述

2 HTN Task Type

在这里插入图片描述

1 Primitive Task atomic task

在这里插入图片描述
在这里插入图片描述

2 Composite tasks

在这里插入图片描述

It is very convenient to build a behavior tree of your own thinking.
在这里插入图片描述

3 HTN Domain

在这里插入图片描述

HTN: Can communicate with ordinary people, behavior tree is more troublesome than pride
在这里插入图片描述

4 Planning

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

Atomic tasks
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Replan is very important.
在这里插入图片描述

5 summary

The Bad: Unpredictable, missions may fail.
There is competition for designers.
If the planner is too careful, there will be problems.
在这里插入图片描述

2 Goal oritented Action Planning

Planning:
Goal-Oriented Behavioral Planning
在这里插入图片描述

1 structure:

Goal: It is not displayed in htn
, but it is clearly written in GOAP.
It's a matter of planning, not planning.
在这里插入图片描述

2 Goal set

在这里插入图片描述

3 Goal selection

在这里插入图片描述

4 Action set

Added additional cost.
All dynamic programming problems must consider cost.在这里插入图片描述

Go backwards to plan my goal state. Much like the way humans think about flashbacks.
在这里插入图片描述

5 planning

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Plan a path, and finally clear the unstatisfied states stack.

Dynamic programming is an np problem.

在这里插入图片描述
According to my goal, expand into a huge graph and find a shortest path. Use the A* algorithm
在这里插入图片描述

6 Summary

For the first time separate goals and actions. The behavior of the AI ​​is wonderful.
Disadvantages: the amount of calculation is large; the state expression of the game is expressed quantitatively.

在这里插入图片描述

3 Monte Carlo Tree Search (MCTS)

在这里插入图片描述
在这里插入图片描述

1 Monte Carlo method

在这里插入图片描述

2 MCTS

在这里插入图片描述

Abstract as a mathematical model:

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3 simulations

在这里插入图片描述

在这里插入图片描述

Reverse derivation:

在这里插入图片描述

Iterate:

在这里插入图片描述
在这里插入图片描述

4 Selection

在这里插入图片描述
Develop, explore.
在这里插入图片描述

UCB

在这里插入图片描述
C----Small, just be conservative.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

LCB

C的设置就是调了。

在这里插入图片描述

5 总结

对于复杂游戏很难定义赢还是输,不一定可以适合所有的游戏。
输出是非常明确的,MTCS是很符合的,否则不能只用MCTS。

在这里插入图片描述

4 deeplearning

1 Mechine learning Basic

在这里插入图片描述

1 监督学习

核心基础是分类器。这个需要大量的数据,
在这里插入图片描述

2 无监督学习

在这里插入图片描述

3 半监督学习

半监督学习。
在这里插入图片描述

4 强化学习

没有监督者,没有人告诉你是对的,还是错的,做对了有奖励,做错了有惩罚。

在这里插入图片描述

在这里插入图片描述

1 马尔可夫

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Policy:黑箱,

在这里插入图片描述
在这里插入图片描述

2 machine learning in game AI

在这里插入图片描述
游戏的状态
在这里插入图片描述

时间状态的描述;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3 训练策略

用监督学习训练相对可以的网络,选择什么样的数据集去训练呢
选择比较优秀的玩家的数据。

在这里插入图片描述

然后强化学习:
在这里插入图片描述
在这里插入图片描述
最怕做到局部最优解,而不是全局最优解。

5 问题

在这里插入图片描述

在这里插入图片描述

目前在cpu上。
在这里插入图片描述

6 视频

上:
https://www.bilibili.com/video/BV1iG4y1i78Q/?spm_id_from=333.788
下:
https://www.bilibili.com/video/BV1ja411U7zK/?spm_id_from=333.788&vd_source=5c9c50b5a07b211beafdf65d7cc7f8c8

Guess you like

Origin blog.csdn.net/qq_41286360/article/details/126961559
Recommended