Elephant Robot Artificial Intelligence Suite 2023 バージョン 深層学習協働ロボット、高度なマシン ビジョンおよびアプリケーション シナリオ

導入:

現在のバージョンの紹介

今日はai kit2023を紹介します。aikit2023はaikitの新しいアップグレードバージョンです。

AIkit 2023 は、ビジョン、位置決めと把握、自動仕分けモジュールを統合したエントリーレベルの人工知能スイートです。

このキットは、 Pythonプラットフォームに基づいて、ソフトウェアの開発を通じてロボット アームできます

人工知能スーツ 2023 は、産業シーンを模倣したロボット アームの応用シーンですこの模倣産業シーンでは、ロボットアームが手動の代わりにインテリジェントな仕分けを実現し、最初は産業オートメーションを実現します。このシーンの中核となるのは、5 つのビジョンアルゴリズムとロボット アームの動作制御アルゴリズムであり、物体を迅速に識別し、正確な分類を実行できます。

5 つのビジョン アルゴリズムは次のとおりです。

● 形状识别算法


            ● 特征点识别算法


            ● 二维码识别算法


            ● 颜色识别算法


            ● YOLOv5识别算法

OpenCV は、コンピューター画像処理、コンピューター ビジョン、機械学習の分野で使用されるオープン ソースのコンピューター ビジョンライブラリです。OpenCV は、 C++や Python などのさまざまなプログラミング言語をサポートし、開発者が画像認識、ターゲット追跡、ロボットナビゲーションなどのさまざまなアプリケーションを実装するのに役立つ多数の画像処理およびコンピューター ビジョン機能を提供します。

最初の 4 つのアルゴリズムは、色域認識、特徴点認識、二次元コード認識、形状認識を含む、画像処理およびマシン ビジョン用の OpenCV アルゴリズムに基づいています。

YoloV5 (You Only Look Once バージョン 5) は、近年人気のあるターゲット検出アルゴリズムです。v5 はそのバージョン番号 (5 番目のバージョン) を表し、畳み込みニューラル ネットワーク(CNN) を使用してオブジェクトを予測し、検出をより速く完了できます。依然として高い精度を維持しています。

次に、その仕組みを見てみましょう。

形状認識アルゴリズム

特徴点認識

色の認識

QRコード認識

yolov5 の認識

使い方を見てみましょう

使い方

環境

Artificial Intelligence Suite 2023のプログラムはPythonをベースに書かれたプログラム群です。

M5Stack をコア コントロールとして備えた my シリーズ ロボット アームを使用する場合、コンピューターは使用時にPython コンパイル環境をインストールする必要があります。また、myCobot 280 M5Stack、mechArm 270 M5Stack など、openCV などの対応する Python ライブラリがインストールされています。 myPalle tizer 260 M5Stack。

Raspberry Piを核として 制御されるロボットアームを使用する場合、myCobot 280 Pi、mechArm 270 Pi、myPalletizer 260 Piなどの環境をインストールすることなく使用できます

aikit 2023 で使用するプログラムは Github からダウンロードする必要があります。

https://github.com/elephantrobotics/AiKit_UI

傍受されたコードの一部

プログラムを始めましょう!

利用の流れ

main.pyを起動する

これは起動後のビジュアルプログラムインターフェイスです

接続するロボットアームのモデル、シリアルポート番号、ボーレートを選択します

カメラの下に画像を表示して、マシンビジョンの関連アルゴリズムを実現します。

これはプログラムの最も重要な部分です。アルゴリズム選択列でさまざまな機能を実行するためのさまざまなアルゴリズムを選択します。

以上がこのビジュアルインターフェースの概要です。

実行中のプロセス:

ロボットアームを接続 -> アルゴリズムを選択 -> カメラをオンにする -> 自動モードをオンにする

aikit2023 を実行する準備ができました。

要約する

このセットをどう評価しますか?

冒頭でも述べたように、マシンビジョンのアルゴリズムやロボットアームの基礎知識、Pythonの使い方を学び始めるのに非常に適したセットです。

プログラム全体はオープンソースであり、各コードには詳細なコメントが記述されており、コードは自由に変更できます。そこからユーザーはプログラムの枠組みがどのように構築されているかを理解でき、最も重要なのはビジュアルをどのように組み合わせるかです。ロボットアームの動作制御を伴うアルゴリズムは、複雑なパラメーターがあまりなく、簡潔かつ明確です。

ロボット アームのアプリケーションに関しては、「ハンド-アイ キャリブレーション」は切り離すことができません。ロボット アームのアプリケーション シナリオでは、ハンド-アイ キャリブレーションは非常に重要です。目と手を合わせる場合と、手を手に合わせる場合の 2 つのケースがあります。実環境のデータとコンピュータ内のデータを扱う、データ間の関係。

aikit 1 を所有しているユーザーは、aikit2023 の最も特別なポイントがどこにあるのか一目でわかるはずです。

データ、ステータス、結果などの表示にはビジュアルインターフェイスを採用し、直感的でわかりやすい情報表示方法を実現しています。ビジュアル インターフェイスは操作を簡素化し、ユーザーがデータを迅速に識別、アクセス、操作できるようにするために使用され、さまざまな方法で対話および操作できます。コードについて何も知らなくても、スイート全体を正常に実行できます。

aikit2023と以前のaikitアップグレードとの違いや違いを知りたいユーザーも多いと思いますので、今後の記事で解説していきます!

この記事が気に入ったら、メッセージを残して「いいね」をしてください。また次回お会いしましょう。

おすすめ

転載: blog.csdn.net/m0_71627844/article/details/131582726