AI システムは複雑な問題を解決できるのでしょうか?

著者: 禅とコンピュータープログラミングの芸術

1 はじめに

過去 10 年ほどで、AI テクノロジーは、記号プログラミングから論理的推論、機械学習、深層学習、強化学習に至るまで、さまざまな段階を経てきました。現在、人工知能は経済先進国における基礎産業となり、ますます多くの応用シナリオが示されています。しかし、さまざまな複雑な問題に直面すると、そのシステム アーキテクチャはこれらのニーズを完全に満たすことができません。

自律学習機能を備えた AI システムをどのように設計するかは重要な課題です。複雑さのため、高性能、信頼性、柔軟性に優れた AI システムを設計するには、学際的かつ領域を超えた研究努力が必要となる場合があります。AI システムの学習効果を評価し、堅牢性、汎用性、耐障害性などの特性を向上させるために調整を行う方法も、現在人気の研究方向の 1 つです。

この記事では、強化学習に基づくAIシステム、つまり強化学習に基づくロボットアーム制御について紹介します。主に以下の内容が含まれます。

  • (1) 背景の紹介: ロボットの力学と逆運動学の原理を理解します。
  • (2) 主要用語の紹介: ロボットアームダイナミクスモデル、モンテカルロ法、逆運動学、決定木など。
  • (3) システム アーキテクチャ: 強化学習に基づくロボット アーム制御のシステム アーキテクチャを示します。
  • (4) コアアルゴリズムの原理: ポリシーネットワーク、バリューネットワーク、モンテカルロツリー探索、モデル学習などを含む、強化学習に基づくロボットアーム制御のコアアルゴリズムを説明します。
  • (5) 操作手順と具体的なコード例: Python 言語を使用して強化学習に基づくロボット アーム制御を実装します。
  • (6) 今後の開発動向と課題: 強化学習に基づくロボットアーム制御の今後の開発動向と課題を簡単に分析します。

2. 重要な用語の紹介

2.1 ロボットアームダイナミクスモデル

マニピュレータの場合、次の図に示すように、ダイナミクス モデルはジョイント速度モデルとジョイント加速度モデルに分割できます。

  • T: 作業時間 (秒)。
  • ω: 関節角速度。
  • θ:関節角度。
  • q(t): 関節角度の時間変化曲線を表す連続時間状態変数。
  • v: 関節速度。
  • a: 関節加速度。
  • τ:モーター出力。

2.2 モンテカルロ法

モンテカルロ法は、乱数生成を使用していくつかの問題に対する正確な解決策を求める、確率論および数学的統計における方法です。簡単に言うと、モンテカルロ法とは、ある分布またはランダムな特性を持つパラメータ空間から等しい確率でいくつかのサンプルデータを独立してサンプリングし、平均や分散などのいくつかの統計的手法を使用することです。これらのサンプルデータの集計結果分布またはパラメータ空間全体を記述する確率密度関数または確率分布関数を近似するために使用されます。

強化学習では、環境のシミュレーション、意思決定の実行、収益の計算、ポリシー ネットワークのパラメーターの更新などにモンテカルロ法が使用されます。強化学習における探索・活用問題の解決、学習効率の確保、不確実性とノイズの解決、部分的な可観測性の問題の処理など、強化学習における多くの問題を効果的に解決できます。

2.3 逆運動学

制御問題では、逆運動学 (IK) は、オブジェクトを特定の位置、姿勢、またはタスクの指示に移動する方法を見つける方法を説明します。ロボットアームの制御では、逆運動学を利用して、ある座標系上のどこかの関節角度を求め、ロボットアームの先端と目標点との間の変位ベクトルを求めてロボットアームの動作を制御することを目的としています。IK の解析ソリューションには欠陥があり、通常、数値最適化にはモンテカルロ法が使用されます。

2.4 デシジョンツリー

デシジョン ツリーは、ノードと接続されたエッジで構成されるツリー構造です。これは、分類、回帰、または予測のためにツリー構造を描画するためによく使用されます。強化学習では、報酬に対する期待を表すために決定木が使用されます。そのルート ノードは状態空間全体の可能な状況を表し、各リーフ ノードは特定の状態を表し、エッジはルート ノードからリーフ ノードへの確率遷移確率を表します。決定ツリーを通じて、状態空間からアクション空間へのマッピングを完了できます。

3. システムアーキテクチャ

強化学習に基づくロボットアーム制御のシステムアーキテクチャは下図に示されており、このうち入力層は外部環境から受け取るタスクの指示やロボットの現在の状態などの情報を受け取り、出力層は動作信号を生成し、アクチュエータモジュールに出力します。アクチュエータモジュールは、ロボットアームの関節角度を回転させるなど、動作信号に従って対応する動作を実行します。報酬割り当て部は外部環境からフィードバック情報を受け取り、報酬分配ルールに従って報酬を割り当てます。模倣学習者は学習プロセスを監視し、学習したパターンに基づいて環境との相互作用を模倣します。

4. コアアルゴリズム原則

強化学習に基づくロボットアーム制御の中核アルゴリズムには、ポリシーネットワーク、バリューネットワーク、モンテカルロ木探索、モデル学習などが含まれます。それぞれを以下で詳しく紹介します。

4.1 モデルがありませんか? どうやってするの?そして、真似して学びましょう!

強化学習の最も基本的な仮定の 1 つはマルコフ決定プロセスです。つまり、いわゆる「既知の」状態遷移確率分布と「未知の」報酬関数が既知であり、状態遷移と報酬には偏りがありません。しかし、実際のアプリケーションでは、多くの要因、複雑で変わりやすい環境、獲得が難しい未知の報酬、他の要因の影響を受ける行動など、多くの問題を考慮する必要があることがよくあります。したがって、強化学習は多くの場合、環境内のすべての変数間の関係を正確に特徴付け、これに基づいて意思決定を行うことができる強化学習モデルに依存します。ただし、現実世界の複雑な問題はモデルと切り離せないことが多いため、この場合は模倣学習が特に重要です。

たとえば、一部の複雑なロボット制御問題では、システムは環境条件とロボットの動作シーケンスのさまざまな組み合わせの下で最適な戦略を選択する方法を学習する必要があります。従来の強化学習アルゴリズムは通常、モデルを直接学習することを目的としていますが、これは一般にうまく機能しません。強化学習モデルは単一の環境のみを正確に特徴付けることができるため、複数の環境における動作の違いを正確に特徴付けることはできません。模倣学習はこの問題を克服することができます。模倣学習では、既知の戦略をシミュレートし、同様の行動を学習して模倣することで、環境力学とロボットの行動をより適切に特徴付けることができます。このように、全く未知の環境であっても、学習アルゴリズムを模倣することで有用な情報を得ることができ、パターンを素早く発見することができる。

4.2 戦略ネットワークとバリューネットワーク

強化学習に基づくロボットアーム制御アルゴリズムは、ポリシーネットワークとバリューネットワークの2つの部分で構成されます。ポリシーネットワークの機能は、学習によって行動方程式を取得することであり、現在の状態を入力として、とるべき行動の確率分布を記述した行動ベクトルを出力します。値ネットワークの役割は、状態の品質を評価することです。現在の状態を入力として受け取り、現在の状態から開始されるすべての可能なアクションの期待される報酬の合計を記述する値関数 V(s) を出力します。州。どちらもディープ ニューラル ネットワークを使用して実現できます。

4.3 モンテカルロ木探索

モンテカルロ木探索 (MCTS) は、モンテカルロ法に基づいたゲーム ツリー内の探索手法です。各ステップで、MCTS はルート ノードから開始し、実行可能なノードをランダムに選択してシミュレーションします。シミュレーション プロセス中に収集したデータは記録され、その後の意思決定に使用されます。十分なデータを収集した後、MCTS は最適なパス、つまりパスに対応するアクション シーケンスをポリシー ネットワークのトレーニング データとして選択します。このようにして、各シミュレーションの後、モンテカルロ ツリー検索は最適なポリシーに収束します。これにより、反復を通じてポリシー ネットワークが継続的に修正され、収束プロセスが改善されます。

4.4 モデル学習

モデル学習の主なタスクは、アクション状態遷移関数を学習することです。この関数は、状態をアクション空間にマッピングし、モンテカルロ ツリー検索による最適な戦略の選択を支援するために使用されます。深層強化学習アルゴリズムは、人間の常識や事前知識と一致する動作を生成できるように、ポリシー ネットワークのパラメーターを調整します。ただし、ポリシー ネットワークを改善する方法を決定する方法、特に適切なハイパーパラメーターを見つける方法は、モデル学習における重要な課題です。

5. 操作手順と具体的なコード例

次に、Python 言語を使用して、UAV の翼軌道最適化問題を解くことを例として、強化学習に基づくロボット アーム制御を実装します。次のロボット関連の情報があるとします。

  • 初期状態は、UAV が降ろされていて、シャーシが静止しており、2 つの翼が水平に変位した状態です。
  • ロボットの目標点は次のとおりです。ドローンは水平面上の特定の点まで飛行することを望んでいます。ここではそれが (x=2, y=0) であると仮定します。
  • アクションの各ステップが実行された後、ドローンのシャーシの移動方向は常に一定のままですが、翼は水平方向に回転し、翼の最大回転角度は $\pi$ ラジアンです。

まず、関連するライブラリをインポートします。

import gym
import time
from stable_baselines import PPO2 # 使用PPO2算法
import numpy as np
env = gym.make('gym_pendulum:Pendulum-v0') # 创建环境
model = PPO2('MlpPolicy', env, verbose=1) # 初始化模型
model.learn(total_timesteps=int(1e6)) # 训练模型

ジム環境の作成:という名前の環境gym.make('gym_pendulum:Pendulum-v0')を作成することを意味します。はカスタム環境名で、バージョン番号を表します。Pendulum-v0gym_pendulumPendulum-v0

モデルの初期化:ポリシー関数をPPO2('MlpPolicy', env, verbose=1)使用して、トレーニング プロセス情報を出力するために使用される PPO2 モデルを構築することを示しますMlpPolicyverbose=1

トレーニングモデル:model.learn(total_timesteps=int(1e6))トレーニングモデルを示します。トレーニングステップサイズは 10,000 回です。

ポリシー ネットワークは次のように定義されます。

class CustomPolicy(object):
    def __init__(self, sess, ob_space, ac_space):
        self.sess = sess
        num_ob = ob_space.shape[0]
        self.X = tf.placeholder(tf.float32, [None, num_ob]) # 当前状态
        with tf.variable_scope("pi"):
            pi_h1 = tf.layers.dense(self.X, 64, activation=tf.nn.relu, name="pi_h1")
            pi_h2 = tf.layers.dense(pi_h1, 64, activation=tf.nn.relu, name="pi_h2")
            self.pi = tf.layers.dense(pi_h2, ac_space.n, activation=tf.nn.tanh, name="pi") # 动作概率分布
        with tf.variable_scope("vf"):
            vf_h1 = tf.layers.dense(self.X, 64, activation=tf.nn.relu, name="vf_h1")
            vf_h2 = tf.layers.dense(vf_h1, 64, activation=tf.nn.relu, name="vf_h2")
            self.vf = tf.layers.dense(vf_h2, 1, name="vf")[:,0] # 价值函数

    def step(self, obs, state=None, mask=None, deterministic=False):
        act_op, value_op = self.sess.run([self.pi, self.vf], {self.X: obs})
        return act_op, value_op, None, None

    def proba_step(self, obs, state=None, mask=None):
        return self.sess.run(self.pi, {self.X: obs}), None, None, None

カスタム ポリシー ネットワークを作成し、2 つのニューラル ネットワークを定義します。

  • pi: アクション確率分布を生成し、現在の状態を入力しself.X、アクション確率分布ベクトルを出力するために使用されますself.pi
  • vf: 現在の状態の値関数を計算し、現在の状態を入力しself.X、値関数の値を出力するために使用されますself.vf

モデルを構築します。

policy_kwargs = {'net_arch': [dict(pi=[64, 64], vf=[64, 64])] * 2}
model = PPO2(CustomPolicy, env, policy_kwargs=policy_kwargs, verbose=1)
model.learn(total_timesteps=int(1e6))

PPO2 モデルを作成し、それをCustomPolicyポリシー関数として指定し、ネットワーク構造net_archを に設定します[[64, 64], [64, 64]]

トレーニングモデル:

model.learn(total_timesteps=int(1e6))

モデルを実行します。

obs = env.reset()
for i in range(1000):
    action, _states = model.predict(obs)
    obs, rewards, dones, info = env.step(action)
    env.render()
    if dones:
        break
    time.sleep(0.1)
env.close()

モデルを実行し、ロボットをターゲット ポイントまで飛行させ、レンダリングします。

これまでのところ、強化学習に基づいた UAV 翼軌道最適化問題の解を完成しました。もちろん、実際のプロジェクト開発では、パラメータ設定の変更、より多くの環境情報の追加、さまざまな問題に対するさまざまな報酬関数の追加など、上記のコードを適宜変更する必要があります。

おすすめ

転載: blog.csdn.net/universsky2015/article/details/133446524