の分野では、高精度のための概要のビジュアルサーボアルゴリズム

著者:トム・ハーディ
日:2020年2月14日
出典:フィールドの高精度の概要については、ビジュアルサーボアルゴリズム

序文

ビジュアルサーボは非常に多くの自動組立、高精度の登録アプリケーションでは非常に重要な産業分野です。過去2年間の一般的なアルゴリズムモード、簡単な概要について。

1、イメージベースビジュアルサーボを把握するための非定常オブジェクトのターゲット機能の設定を予測

この論文は、RGB-D深度カメラは、有効な情報を提供することができない場合、現在のコントローラ障害クロール非静止物体下クロールするロボットに必要な問題の最終段階をクロールするアプローチ閉ループ。最後把持姿勢で、この予測画像の特徴は、ポーズに到達するロボットを案内する画像座標と画像ベースのビジュアルサーボを観察しました。、これは、視覚サーボ制御基づいて3次元空間の画像にカメラを移動させることができ、像面の駆動特性が特定の目標状態に配置されるように、成熟した技術です。前の仕事は、それが想定される対象機能の設定が知られているが、一部の用途のために、それは、例えば、第1の性能スポーツシーンに実現可能ではないかもしれません。提案された方法は、最終段階と、ロボット動作制御エラーを把持シーンモーションに対してロバストです。

ここに画像を挿入説明
ここに画像を挿入説明

単一画像から2、カメラ・ツー・ロボット姿勢推定(カーネギーメロン大学、オープンソースコード)

本稿では、単一のカメラ画像からロボットの姿勢推定する方法を相対的に提示します。深度カメラRGB画像処理、ロボット上のキーポイントの二次元検出を使用して、ニューラルネットワーク法、及び領域をランダム化の完全な訓練シミュレーション方法を使用してネットワーク。一般的に、外部カメラを復元するために、プラグアンドプレイモードを使用して、ロボットマニピュレータの既知のジョイント構造は、仮定しました。従来のシステムと手と目の校正方法は、本明細書に記載のオフライン較正手順を必要とせず、単一のフレームは、このようにオンライン較正の可能性を開く、外側カメラパラメータによって計算することができます。この紙プレゼント三つの異なるカメラセンサの結果は、この方法は、単一のフレームの条件下で、伝統的な手と目の校正オフラインマルチより良い精度よりも達成することができることを証明しました。追加のフレームによって、精度がさらに向上します。

ここに画像を挿入説明
ここに画像を挿入説明

3、学習ドリブン粗密多関節ロボットトラッキング(ICRA2019)

ロボット関節トラッキング方法は、視覚的な合図に依存して、この用紙プレゼントは、色及び深度画像は、ロボットの状態又は閉塞の周囲環境との相互作用を推定します。物品は、状態推定状態観測、正確なトラッキングを実現する関節モデル化方法の間にサブピクセルレベル間の正確な対応を確立する前提。それだけで、カラーエッジ又は追尾対象に対応する深さ情報を特定の以前の研究に依存し、関節エンコーダ初期化からの要求。本稿では、プレゼント微細関節状態推定に粗いを推定のみ色深度のエッジに依存し、キー視覚的な手がかり、ロボットの初期状態分布により予測された深さ映像を学びます。アームと環境との相互作用KUKA-LWRシュンク-SDH2手、およびこの組み合わせの証明およびキーポイントの縁を示す用紙4 RGB-D配列における評価方法は、任意の関節エンコーダことなく、ターゲットを追跡するために使用することができます手のひら感知2.5センチメートルケースの位置誤差推定値を平均化します。

ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明

4、懇願:ビジョンベースの経済システムでの制御ロボットアーム(CVPR2019)

训练机器人手臂来完成现实世界的任务已经引起学术界和工业界越来越多的关注。本文讨论了计算机视觉算法在这一领域中的作用并专注于没有传感器的低成本机械臂,因此所有的决策都是基于视觉识别,例如实时三维姿态估计。然而,这就需要标注大量的训练数据,不仅费时而且费力。基于该原因,本文提出了一种新的解决方案,即利用三维模型生成大量的合成数据,在该虚拟域中训练一个视觉模型,并在域自适应后应用于真实图像。为此,论文设计了一个半监督方法,充分利用了关键点之间的几何约束,并采用迭代算法进行优化。该算法不需要对真实图像进行任何标注,具有很好的推广性,在两个真实数据集上得到了不错的三维姿态估计结果。本文还构建了一个基于视觉的任务完成控制系统,在虚拟环境中训练了一个强化学习agent,并将其应用于现实世界。

ここに画像を挿入説明
ここに画像を挿入説明

5、Robot Arm Pose Estimation by Pixel-wise Regression of Joint Angles(ICRA)

为了用机械臂实现基于视觉的精确控制,需要良好的手眼协调。然而,由于来自关节编码器的噪声读数或不准确的手眼校准,了解手臂的当前配置可能非常困难。提出了一种以手臂深度图像为输入,直接估计关节角位置的机器人手臂姿态估计方法。这是一种逐帧的方法,它不依赖于前一帧解的良好初始化或来自联合编码器的知识。为了进行估计,本文使用了一个随机回归森林,它基于综合生成的数据进行训练。论文比较了随机森林的不同训练目标,并分析了手臂的先验分割对训练精度的影响。实验表明,这种方法提高了先前的工作,无论是在计算复杂性和准确性方面。尽管只对合成数据进行了训练,但这种估计也适用于真实的深度图像。

ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明

发布了263 篇原创文章 · 获赞 292 · 访问量 41万+

おすすめ

転載: blog.csdn.net/qq_29462849/article/details/104335625