TransRAC: 反復アクション カウントのためのトランスフォーマーによるマルチスケール時間相関のエンコード,CVPR 2022 オーラル
论文:https://arxiv.org/abs/2204.01018 [2204.01018] TransRAC: Encoding with Multi-scale Temporal Correlation with Transformers for Repetitive Action Counting (arxiv.org)
コード: https://github.com/SvipRepetitionCounting/TransRAC GitHub - SvipRepetitionCounting/TransRAC: (CVPR 2022 口頭) 公式実装: TransRACデータセット: https://svip-lab.github.io/dataset/RepCount_dataset.html
Shanghaitech Vision and Intelligent Perception (SVIP) ラボ (svip-lab.github.io)
合成ビークルからの教師なしドメイン適応によるパーツセグメンテーションの学習,CVPR 2022 口頭
論文: https://arxiv.org/abs/2103.14098
コード: GitHub - qliu24/render-3d-segmentation
数据:UDA-Part: 3D コンピュータ グラフィックス モデルに基づくパーツ セグメンテーション データセット | UDA-パート
Semantic-Aware Domain Generalized Segmentation,CVPR 2022 オーラル
論文: [2204.00822] Semantic-Aware Domain Generalized Segmentation (arxiv.org)
コード:
GitHub - leolyj/SAN-SAW: 「Semantic-Aware Domain Generalized Segmentation」(CVPR 2022) に関連するコードです。
MAXIM: 画像処理のための多軸 MLP,CVPR 2022 オーラル
論文: [2201.02973] MAXIM: 画像処理のための多軸 MLP (arxiv.org)
コード: https://github.com/google-research/maxim
画像検索の相関検証,CVPR 2022 オーラル
论文:[2204.01458] Correlation Verification for Image Retrieval (arxiv.org)
代码:GitHub - sungonce/CVNet: Official PyTorch Implementation of Correlation Verifcation for Image Retrieval, CVPR 2022 (口頭発表)
セマンティック セグメンテーションの再考: プロトタイプ ビュー,CVPR 2022 オーラル
论文:[2203.15102] セマンティック セグメンテーションの再考: プロトタイプ ビュー (arxiv.org)
代码:GitHub - tfzhou/ProtoSeg: CVPR2022 (口頭) - セマンティック セグメンテーションの再考: プロトタイプ ビュー
Dual-AI: グループ活動認識のための Dual-path Action Interaction Learning,CVPR 2022 オーラル
论文:[2204.02148] Dual-AI: Dual-path Actor Interaction Learning for Group Activity Recognition (arxiv.org)
代码:Dual-AI: Dual-path Actor Interaction Learning for Group Activity Recognition (mingfei.info)
GAN-Supervised Dense Visual Alignment,CVPR 2022 オーラル
論文: [2112.05143] GAN-Supervised Dense Visual Alignment (arxiv.org)
コード: https://github.com/wpeebles/gangealing
プロジェクト: GAN-Supervised Dense Visual Alignment (wpeebles.com)
単一ビュー深度確率とマルチビュー ジオメトリの融合によるマルチビュー深度推定,CVPR 2022 口頭発表
论文:[2112.08177] Multi-View Depth Estimation by Fusing Single-View Depth Probability with Multi-View Geometry (arxiv.org)
代码:GitHub - baegwangbin/MaGNet: (CVPR 2022 - 口頭) Multi-View Depth Estimation by Fusing Single-マルチビュー ジオメトリによる深度確率の表示
SeqFormer:ビデオ インスタンス セグメンテーション用の Sequential Transformer、ECCV 2022 オーラル
SeqFormer:https://arxiv.org/abs/2112.08275
IDOL:https://arxiv.org/abs/2207.10661
公式コードアドレス: https://github.com/wjf5203/VNex
ECCV 2022 オーラル | フルスコアペーパー! ビデオ インスタンス セグメンテーション 新しい SOTA: SeqFormer & IDOL - zhihu.com
ビデオ インスタンス セグメンテーションのオンライン モデルを擁護するために、ECCV 2022 オーラル
ビデオ インスタンス セグメンテーションのオンライン モデルの擁護 - 知乎 (zhihu.com)
https://arxiv.org/abs/2207.10661
大規模な教師なしセマンティック セグメンテーション,TPAMI2022
データセットのダウンロード: github.com/LUSSeg/ImageNet-S
主流のメソッド コード: github.com/LUSSeg/ImageNetSegModel
論文で提案されている方法: github.com/LUSSeg/PASS
論文アドレス:arxiv.org/pdf/2106.03149.pdf
TPAMI2022: 大規模な教師なしセマンティック セグメンテーション (LUSS) とそのデータセット Image-S
教師なしセマンティック セグメンテーションのためのトランスフォーマーによるオブジェクト マスクの検出
論文アドレス:https://arxiv.org/pdf/2206.06363.pdf
オープン ソース コード: https://github.com/wvangansbeke/MaskDistill
教師なしセマンティック セグメンテーション-MaskDistill: Transformer を使用して事前確率をマイニングします。SOTA に到達するためのラベル付きデータは必要ありません
StructToken : Structural Prior を使用したセマンティック セグメンテーションの再考
https://arxiv.org/pdf/2203.12612.pdf
セマンティック セグメンテーションの新しいパラダイム: Shanghai AI Lab、Beiyou、SenseTime が StructToken を共同提案
TokenMix: ビジョン トランスフォーマーにおけるデータ増強のための画像ミキシングの再考,ECCV 2022
論文アドレス: https://arxiv.org/abs/2207.08409 [1]
コードアドレス: https://github.com/Sense-X/TokenMix [2]
マルチスケールトークンアグリゲーションによる自己注意の回避
論文アドレス:https://arxiv.org/pdf/2111.15193.pdf
コードアドレス: https://github.com/OliverRensu/Shunted-Transformer
CVPR2022 オーラル - シャンテッド トランスフォーマー: 新しいマルチスケール ビジュアル トランスフォーマー バックボーン ネットワーク
ツリーのエネルギー損失: まばらに注釈が付けられたセマンティック セグメンテーションに向けて
論文アドレス:https://arxiv.org/pdf/2203.10739.pdf
コードアドレス: https://github.com/megvii-research/TreeEnergyLoss
CVPR2022-木のエネルギー損失: 弱い教師ありセマンティック セグメンテーションでスパース グラウンド トゥルース ラベルを拡張できる新しい方法
ツリー エネルギー損失の集中的な読み取り: まばらに注釈が付けられたセマンティック セグメンテーションに向けて_Griffin Valve Worker's Blog - CSDN ブログ
Pixel-to-Prototype Contrast による弱教師付きセマンティック セグメンテーション
論文アドレス:https://arxiv.org/pdf/2110.07110.pdf
コード アドレス: オープン ソースではありません
CVPR2022-Pixel-to-Prototype Contrast: 対照学習を弱教師付きセマンティック セグメンテーションに適用する
弱い教師ありセマンティック セグメンテーションのためのクラス再活性化マップ, CVPR2022
論文アドレス:https://arxiv.org/pdf/2203.00962.pdf
コードアドレス: https://github.com/zhaozhengChen/ReCAM
CVPR2022 クラスの再活性化マップ: 弱い教師ありセマンティック セグメンテーションのクラス再活性化マップ
セマンティックセグメンテーションのためのクロスデータセット協調学習,AAAI 2022
論文アドレス:https://arxiv.org/pdf/2103.11351.pdf
コードアドレス: https://github.com/wanglixilinx/CDCL
AAAI2022-データセット間の共同学習: セマンティック セグメンテーションにおけるデータセット間の共同学習
セマンティック セグメンテーションのためのデータセット間の共同学習 - 知乎
Pyraformer: 長期時系列モデリングと予測のための低複雑性ピラミッド型注意、ICLR 2022 口頭発表
論文アドレス: https://openreview.net/pdf?id=0EXmFzUn5I
github アドレス: https://github.com/alipay/Pyraf
ICLR 2022 オーラル | Ant Group が長距離タイミング モデリングに使用するオープン ソース アルゴリズム、Pyraformer の紹介
DNN の表現ボトルネックの発見と説明,ICLR 2022 口頭発表
ICLR 2022 口頭論文の上位 5 つの高得点論文は「ニューラル ネットワーク表現のボトルネックを発見して証明する」(スコア 10、8、8、8) bazyd
開集合認識: 適切な閉集合分類器だけで十分ですか? ,ICLR 2022 口頭
-
論文リンク: https://arxiv.org/abs/2110.06207
-
プロジェクトのリンク: https://github.com/sgvaze/osr_closed_set_all_you_need
それぞれを補完しあう!モデルのクローズド セット分類の精度を向上させると、オープン セット検出の精度を向上させることができます (ICLR 2022 口頭)
PICO: CONTRASTIVE LABEL Disambiguation for Partial Label Learning, ICLR 2022 ベストペーパー
ダウンロードリンク: https://openreview.net/pdf?id=EhYjZy6e1gJ
この記事|Industry_ICLR 2022 Best Paper Interpretation
Non-Transferable Learning: A New Approach for Model Ownership Verification and Applicability Authorization,ICLR 2022 オーラル
Non-Transferable Learning: モデルの所有権の検証と適用性の承認のための新しいアプローチ
譲渡不可能な学習: モデルの所有権の検証と適用性の承認のための新しいアプローチ | Celent オープンレビュー
ICLR 2022 オーラル: Non-Transferable Learning (反転移学習) bzdww
ICLR2022口頭サイト: zhuanlan.zhihu.com
清華大学と中国人民大学が受賞し、浙江大学がノミネートされ、ICLR 2022 Outstanding Paper Award が発表されました- 知乎
参考ブログ
1 つの記事で CVPR 2022 の最新の 20 のオーラル ペーパーをすべて読む_機械学習コミュニティ ブログ-CSDN ブログ_cvpr オーラル
ECCV 2022 オーラル | フルスコアペーパー! ビデオ インスタンス セグメンテーション 新しい SOTA: SeqFormer & IDOL - zhihu.com
ICLR2022--Oral Presentations.pdf - Motian Wheel ドキュメンテーション