雌豚は以前から知っていましたが、今回は Nannong が Nvidia のエッジ AI Jetson を使用しました

内容の概要: 養豚産業にとって、雌豚の分娩は重要な結び目です。そのため、子豚の生存率の向上と分娩時の母豚の安全確保が重要な課題となっています。既存のAIモニタリング手法は、設備コストが高く、情報伝達が不安定であるという問題がありましたが、南京農業大学の研究者らは、軽量なディープラーニング手法を用いて、雌豚の分娩プロセスの早期警告と効果的なモニタリングを実施し、コストを削減しながらモニタリングの精度率を向上させました。改善されています。

キーワード: 組み込み開発ボード、軽量ディープラーニング

この記事は、HyperAI スーパー ニューラル WeChat パブリック プラットフォームで初めて公開されました~

著者|アリス

編集者|山陽

我が国の養豚産業の規模は世界第一位ですが、業界全体としては依然として飼育レベルが低いという問題に直面しています。多くの大規模養豚場にとって、鍵となるのは子豚の生存率を向上させながらコストを削減することです。人間の監督に依存した従来の方法は困難で非常に主観的なものであり、母豚の分娩中の難産や子豚の窒息などの一連の問題に直面し、タイムリーかつ効果的に対処することは困難です。

近年、AI監視はこの問題に対する重要な解決策となっています。その原理のほとんどは監視のためのクラウド コンピューティング ベースの深層学習に基づいていますが、この方法は大量の機器とネットワーク帯域幅を必要とし、非常に制限が多く不安定です。

中国養豚網によると、分娩前の12~24時間以内に、オキシトシンやプロラクチンの影響で雌豚は営巣行動を示すことが多く、姿勢変化の頻度が増加するという。**これに基づいて、実験チームは YOLOv5 アルゴリズムを通じて雌豚の姿勢と子豚の誕生を監視するモデルを設計し、NVIDIA Jetson Nano 開発ボードに展開しました。**複雑なシーンを低コスト、低遅延、高効率、簡単に実装できます。

現在の結果は、「埋め込みボード実装に対する雌豚の分娩早期警告と監視」というタイトルで、2023 年 1 月にジャーナル「Sensors」に掲載されました。
ここに画像の説明を挿入この論文は雑誌「Sensors」に掲載されました。

論文アドレス:
https://www.mdpi.com/1424-8220/23/2/727

実験概要

データと処理

ビデオ データは、江蘇省宿遷市と京江市の 2 つの農場から取得したもので、**合計 35 頭の周産期雌豚が収集されました。**京江農場の11頭の雌豚のデータは2017年4月27日から5月13日まで記録され、宿銭農場の24頭の雌豚のデータは2020年6月9日から15日まで記録されました。雌豚を特定サイズ(2.2m×1.8m)の分娩床にランダムに配置し、カメラで24時間連続してビデオデータを記録しました。

プロセスは次のとおりです。
ここに画像の説明を挿入図 1: ビデオ キャプチャのフローチャート

次に、データを前処理します。実験チームはまず、分娩前日と翌日に録画した動画を選別し、PythonとOpenCVで画像データに処理した。**ラベル ソフトウェアを使用して、取得した 12,450 枚の画像内の雌豚の姿勢と新生子豚のデータを手動でラベル付けし、強調することで、** 32,541 枚の画像のデータ セットが取得されました。

データ拡張: ここでは、トリミング、変換、回転、ミラーリング、明るさの変更、ノイズの追加、シャーリングを指します)

このデータセットは、トレーニング、検証、テスト セット用に4 つの雌豚の姿勢 (側臥位、胸臥位、立位、座位) と 7:1:2 の比率の子豚の 5 つのカテゴリに分割されています。
ここに画像の説明を挿入
図 2: データ拡張後の効果

実験モデル

実験チームは YOLOv5s-6.0 を使用して、雌豚の姿勢と子豚を検出するモデルを構築しましたこのモデルは 4 つの部分で構成されています。

入力:画像入力

BackBone: 雌豚と子豚の画像の特徴抽出

ネック:イメージの特徴の融合

予測: 予測 (雌豚と子豚ではサイズが大きく異なるため、この部分では 3 つの異なる特徴マップ (特徴マップ) を使用して大、中、小の対象物体を検出します) 図 3: YOLOv5s アルゴリズムのネットワーク
ここに画像の説明を挿入構造

a : CBS モジュールの詳細

b : Resユニットモジュールの詳細

c : CSP1_X および CSP2_X モジュールの詳細構造

d : SPPFモジュールの詳細構造

実験チームは、Nvidia が発売した Jetson Nano シリーズ組み込み AI コンピューティング プラットフォームにアルゴリズムをデプロイし、TensorRT を使用してモデルを最適化しました。これにより、組み込み開発ボードでのその後の操作のスループットが向上し、レイテンシが低くなると同時に、データ漏洩の可能性があることを回避しました。ネットワーク送信プロセスに存在するものは削除されます。
ここに画像の説明を挿入

図 4: TensorRT のワークフロー

具体的なパラメータは次のとおりです。

モデル トレーニング環境: Ubuntu 18.04 オペレーティング システム、Intel® Xeon® Gold 5118 @ 2.30 GHz CPU、NVIDIA Quadro P4000 GPU、8 GB ビデオ メモリ、64 GB メモリ、2 TB ハードディスク、PyTorch 1.7.1 および Torchvision 0.8.2 ディープ学習フレームワーク、CUDA バージョン 10.1。

モデル展開環境: ARM に適合した Ubuntu 16.04 オペレーティング システム、4 コア ARM A57 @ 1.43 GHz CPU、128 コア Maxwell アーキテクチャ GPU、4 GB メモリ、JetPack 4.5、Cuda10.2.89、Python 3.6、TensorRT 7.1、Opencv 4.1.1 , CMake 3.21.2 ディープラーニング環境。

モデルパラメータ: (1) YOLOv5 トレーニングの場合、エポック 300、learning_rate 0.0001、batch_size 16 を設定; (2) TensorRT 最適化ネットワークの場合、batch_size は 1、精度 fp16。

最後に、実験チームは精度、再現率、検出速度などの指標を使用して、さまざまなアルゴリズムのパフォーマンスを評価しました。

その中で、精度と再現率は、母豚の 4 つの姿勢 (側臥位、胸臥位、立位、座位) と新生子豚を含むすべてのカテゴリーのデータを検出するアルゴリズムの能力を測定するために使用できます。モデルのサイズと検出速度が使用されます。アルゴリズムが組み込みデバイスへの展開に適しているかどうかを測定します。

計算式は次のとおりです。
ここに画像の説明を挿入
TP : 陽性サンプルの正解数

FP : 陽性サンプルの誤った予測の数

FN : 負のサンプルに対する誤った予測の数

実験結果

モデルのパフォーマンス

実験チームは、モデル トレーニングの 300 エポックにおいて、反復サイクルが増加するにつれて、精度と再現率が一般に上昇傾向を示すことを発見しました。同時に、データ強化後の YOLOv5s モデルの精度と再現率は常に高いことがわかります。
ここに画像の説明を挿入

図 5: YOLOv5s 検出モデルの精度と再現率

a:精度 (precision)

b : 再現率(再現率)

オレンジ色の線: データ拡張後の YOLOv5s モデルの適合率/再現率

青線: データ拡張なしの YOLOv5s モデルの精度/再現率

実験では、平均精度 (mAP) を使用して、すべてのクラスを検出するアルゴリズムの能力を評価しました実験チームは、YOLOv5s アルゴリズムを評価する際に、YOLOX-nano と NanoDet-m の 2 つのアルゴリズムの性能を水平方向にも比較し、その結果、YOLOX-nano と NanoDet-m の検出速度は YOLOv5s よりわずかに速いことがわかりました。精度が低くなり、子豚の行方不明や誤検出の状況。YOLOv5s アルゴリズムは、さまざまなサイズのターゲットに対して良好な検出結果をもたらし、画像、ローカル ビデオ、カメラにおけるモデルの平均検出速度は他の 2 つと同等です。また、データ拡張された YOLOv5s モデルは、精度と再現率がそれぞれ 0.982 と 0.937 と最も高くなります。
ここに画像の説明を挿入
表 1: 雌豚の姿勢と子豚の検出のためのさまざまなアルゴリズムの評価指標

モデルの一般化能力と抗干渉能力をテストするために、実験チームはモデルのトレーニング時に雌豚のうちの 1 頭を「新しいサンプル」として保持し、モデルをテストするためにさまざまな複雑なシーンを含む 410 枚の画像を選択しました。その結果、雌豚の姿勢の見逃しと誤検出は主に光の変化に影響され、子豚は主に加熱ランプの影響を受ける、つまり強い光の下では子豚を認識するのが困難である、検出能力は低いことがわかった。影響が少なくなります。

ここに画像の説明を挿入
表 2: 複雑な環境での YOLOv5s モデルのテスト状況

左から2列目:複雑な照明下で母豚の姿勢の見逃し率が最も高くなる

左3列目:複雑な照明や夜間の加熱ランプ点灯下では雌豚の姿勢の誤検出率が高くなる

左から 4 番目の列: 複雑な照明条件や暖房ランプが点灯している夜間では、子豚の誤検出の数が増加します。

左の 5 列: 暖房灯が点灯している夜は、逃した子豚の数が多くなりました。

ここに画像の説明を挿入
図 6: 複雑な環境での画像テストの結果

a : 複雑な照明の下で

b : 最初に生まれた子豚

c : さまざまな色のアンダーヒートランプ

d : 夜間はヒーターランプを点灯します。

導入前と導入後

実験チームがこのモデルを NVIDIA Jetson Nano に展開したところ、雌豚と子豚の姿勢を正確に検出することができました。テスト結果を比較した結果、NVIDIA Jetson Nano に展開した後、モデルの精度はわずかに低下しましたが、速度は 8 倍以上向上したことがわかりました

ここに画像の説明を挿入

表 3: モデルのテスト結果の比較

左列:モデルの形式

左側の 2 番目の列: モデル展開プラットフォーム。Quadro P4000 は比較テストに使用されるプラットフォームです。

組み込み開発ボードでの GPU の使用率により、このモデルの実用的な機能が制限されます。以下の図は、組み込み開発ボード上で画像およびビデオ オブジェクトを検出するときのモデルの GPU 使用率を示しています。ビデオ ストリームをデコードする必要があるため、ビデオ検出時の GPU 使用率は画像検出時よりも高くなりますが、これはモデルのパフォーマンスには影響しません。テスト結果は、研究中のモデルがさまざまな生産シナリオに適用できることを示しています。
ここに画像の説明を挿入

図 7: 検出中の GPU 使用率

(a)画像検出における GPU 使用率

(b)ビデオ検出における GPU 使用率

試験結果

実験チームは、出産前48時間から出産後24時間までの雌豚の平均姿勢切り替え頻度を得るために、22頭の雌豚のデータをテストおよび分析しました。**変更の頻度に従って (以下の図に示すように)、チームはモデルの早期警告戦略を次のように要約しています。

1. 姿勢変換回数が上限値(17.5回/時間)を超え、下限値(10回/時間)を下回った場合にアラームを発します。

2. 母豚の日常活動による早期警戒への影響を軽減するため、上限または下限は 5 時間を超える必要があります。

サンプルのテストでは、このモデルが分娩の 5 時間前に警報を発することができ、警報時間と実際の分娩時間との誤差は 1.02 時間であることがわかりました。
ここに画像の説明を挿入

図 8: 分娩前 48 時間から分娩後 24 時間までの雌豚の平均姿勢変換率の分析

(a)平均姿勢変換率の変動範囲

(b)ポーズ遷移の平均頻度

分娩の 48 時間前から分娩の 24 時間前まで。この間、母豚は通常活動的です。

出産の24時間前から出産の1時間前まで、姿勢変化の頻度は徐々に増加し、その後徐々に減少しました

産後1時間から24時間までは体位変換の頻度は0に近く、その後わずかに増加します。

最初の生まれたばかりの子豚が検出されると、分娩アラームが作動し、「分娩開始! 開始時刻: XXX」と表示されます。さらに、LED ライトの点滅は、ブリーダーが分娩中の雌豚を素早く見つけ、手動介入が必要かどうかを判断するのにも役立ちます。

しかし、検出率が高すぎると、子豚が誤って検出されることがよくあります。したがって、リアルタイム検出を実現し、誤警報を減らすために、実験チームは「3つの連続検出方法」を採用しました。生まれたばかりの子豚が3回連続で検出された場合にのみ、子豚と判断されました。この方法の誤検知数は 1.59 倍ですが、従来の単一検出方法では 9.55 倍です。誤検知の数は大幅に減少し、全体の平均正解率は 92.9% になりました。

AI 養豚: スマート繁殖の新時代

私の国は世界有数の養豚国で、2015年から2018年までの年間の豚の屠殺量は約7億頭でした。しかしながら、近年、豚コレラ等の影響により、豚の生体頭数やと畜頭数は大きな変動を続けております。公表されている業界調査データによれば、近年、養豚における小売戸数の割合は減少し、大規模化が進んでおり、養豚においてはより効率的かつ集約的な養殖技術の導入が求められています。業界。
ここに画像の説明を挿入

中国では、AI養豚はすでに信頼できる製品を持っています。Alibaba Cloud、Aibo Machinery、Qishuo Technology は、複数のシナリオのニーズを満たす AI 養豚ソリューションを開始しました。JD農業畜産インテリジェント繁殖ソリューションは、AI、モノのインターネット、その他のテクノロジーに基づいており、「豚の顔認識、チェーン全体のトレーサビリティ」を実現します。AIによってもたらされる、よりスマートで洗練された農業モデルが徐々に推進されています。

しかし、現状のAI養豚推進にはコスト高や操作の煩雑さなどの課題が残されており、より多くの養豚場にAIを受け入れてもらうには、まだまだ道半ばかもしれない。

この記事は、HyperAI スーパー ニューラル WeChat パブリック プラットフォームで初めて公開されました~

参考リンク:

[1]https://www.163.com/dy/article/HCSQN810055360T7.html

[2]https://xueshu.baidu.com/usercenter/paper/show

[3]https://www.aliyun.com/solution/govcloud/ai-pig

[4]http://www.dekanggroup.com/index/news/detail/id/182.html

[5]https://www.thepaper.cn/newsDetail_forward_3695180

[6]https://reurl.cc/mDKyEM

[7] Ding Qi'an、Liu Longshen、Chen Jia、Tai Meng、Shen Mingxia、Jetson Nano[J/OL] に基づく授乳中の子豚のターゲット検出、Journal of Agriculture Machinery。

おすすめ

転載: blog.csdn.net/HyperAI/article/details/132211449