[Jiajiaguai 文献共有] 安全なヒューマン・コンピュータ・インタラクションと自動運転アプリケーションのための責任配分の学習

标题:自動運転へのアプリケーションを使用した人間とロボットの安全なインタラクションのための責任配分の学習

クレジット: Ryan K. Cosner、Yuxiao Chen、Karen Leung、Marco Pavone

来源:2023 IEEE International Conference on Robotics and Automation (ICRA 2023)

これは Jiajiaguai が共有する 5 番目の記事です。共有専用です。間違いがある場合は、批判して修正してください。

まとめ

ドライバーには、他の道路利用者との衝突を避けるために合理的な注意を払う責任があります。この責任を引き受けることにより、対話するエージェントは明示的な調整を行わなくてもセキュリティを維持できるようになります。したがって、安全な自動運転車 (AV) の対話を可能にするために、AV は安全を維持する責任と、それが近くのエージェントの安全にどのような影響を与えるかを理解する必要があります。この研究では、マルチエージェント環境で自律エージェントが人間の対応者と対話するときに責任がどのように共有されるかを理解しようとします。責任認識コントロールバリア機能 (RA CBF) を導入し、データから責任の割り当てを学習する方法を提案します。RA CBF では、セーフティ クリティカルな制御と学習ベースの技術を組み合わせることで、シナリオに応じた責任の配分を検討し、過度に保守的な行動につながることが多い最悪のケースを想定することなく、安全で効率的な運転行動を統合することができます。私たちは実世界の運転データを使用してフレームワークをテストし、安全管理および危険な運転に対するフォレンジック分析ツールとしての有効性を実証しました。
ここに画像の説明を挿入します
図1。人間が運転する場合、車両は合理的な注意義務を負うことができます。たとえば、後続車両 (緑) は前の車両 (青) と衝突しないようにする責任があり、合流する車両 (オレンジ) は公式および非公式のルールに従い、車線内の車両 (ピンク) との衝突を回避します。自動運転車がこれらの非公式の運転ルールに従って動作することを保証するにはどうすればよいでしょうか?
ここに画像の説明を挿入します
図2。学習された責任分布曲面は、さまざまな速度と相対位置に対して視覚化されます。シーン 1: 自家用車 (黄色) が 2 車線の道路を走行しています。いずれの場合も、γ(ego,x)>0 は保守的な運転の程度を示します。通常、別のエージェント (赤) が後ろにいる場合、γ(ego,x) は大きくなり、別の車両の後ろを運転するときの責任が増大することを示します。シナリオ 2: 自車両は四差路交差点に駐車されており、その前または後ろに別の車両 (緑) があります (青のエージェントはいません)。同様に、自我車両 (黄色) は、緑色の車両が後ろにあるときよりも前にあるときの方が責任を負います。シナリオ 3: 自車両 (青) が四差路交差点に駐車し、別の車両が上から下に横断します (緑のエージェントなし)。γ(ego,x) は青い車両のすべての位置と速度で大きく、この場合はエゴ エージェントの責任が大きいことを示しています。
ここに画像の説明を挿入します
図 3. フォレンジック分析に使用されるクラッシュ シナリオ。2 行の図は左から右に、シナリオと軌跡、エージェント 1 とエージェント 2 への入力、各エージェントへの学習責任の割り当て、およびその RA-CBF 制約値 (9) を示しています。各エージェントの学習された責任の割り当てと、その RA-CBF 制約値 (9)。
ここに画像の説明を挿入します
表 I. 閉ループの実験結果

結論は

私たちは、安全で責任ある運転行動を学習および統合するためのフレームワークとして、責任意識制御バリア機能 (RA-CBF) を提案します。RA-CBF は、複数の (人間の) エージェント間での非対称な責任分担を把握するように設計されており、状況に応じた責任配分をデータから学習する方法を提案します。次に、実際の運転データを使用して、アプローチの有効性と実用性を実証します。この研究は、責任学習パラダイムに明示的な交通ルールを組み込むこと、地理的地域間での責任割り当ての違いを比較すること、群衆ナビゲーションなどの他の応用分野を探索することなど、将来の開発への道を示しています。

おすすめ

転載: blog.csdn.net/iii66yy/article/details/132265617