コレクションのダウンロード:クリックしてジャンプします
1. ニューラルネットワークの構造設計
[1]境界解放学習
[コード]なし
[2]等角基底ベクトル
[コード] GitHub - NJUST-VIPGroup/Equiangular-Basis-Vectors
[3]LargeKernel3D: 3D スパース CNN でのカーネルのスケールアップ
[コード] GitHub - dvlab-research/LargeKernel3D: LargeKernel3D: 3D スパース CNN のカーネルのスケールアップ (CVPR 2023)
[4] 歩くな、走るな: ニューラル ネットワークを高速化するためにより高い FLOPS を追求する
[コード] GitHub - JierunChen/FasterNet: [CVPR 2023] PConv および FasterNet のコード
[5]ALOFT: ドメイン一般化のための動的な低周波変換を備えた軽量の MLP のようなアーキテクチャ
[コード] https://github.com/lingeringlight/ALOFT/
【エリア】MLP
[6]イメージツーポイントマスクオートエンコーダーを介した2D事前トレーニングモデルからの3D表現の学習
[コード] GitHub - ZrrSkywalker/I2P-MAE: [CVPR 2023] イメージツーポイント マスク オートエンコーダーを介した 2D 事前トレーニング モデルからの 3D 表現の学習
【エリア】前
[7]スパースカーネル選択によるバイナリニューラルネットワークの圧縮
[コード]なし
[8] 精度と信頼性の橋渡し: 物体検出の校正におけるトレーニング時間の損失
[コード] GitHub - akhtarvision/bpc_calibration: [CVPR 2023] 精度と信頼性の橋渡し: オブジェクト検出のキャリブレーションによるトレーニング時間の損失
[9] SMPConv: 連続畳み込みのための自己移動点表現
[コード] GitHub - Sangnekim/SMPConv: [CVPR2023] 「SMPConv: 連続畳み込みのための自己移動点表現」
2、CNN
[1]テイラー拡張によるランダム化された敵対的トレーニング
[コード] GitHub - Alexkael/Randomized-Adversarial-Training
[2] エイリアスフリーの Convnets: 多項式のアクティベーションによる分数シフトの不変性
[コード] https://github.com/hmichaeli/alias_free_convnets/
[3]DeepMAD: ディープ畳み込みニューラル ネットワークの数学的アーキテクチャ設計
[4]最新のイメージディープネットワークにおけるトランスフォーマーと畳み込みをわかりやすく理解する
[コード] GitHub - OpenGVLab/STM-Evaluation
[5]InternImage: 変形可能な畳み込みを使用した大規模ビジョン基盤モデルの探索
[コード] GitHub - OpenGVLab/InternImage: [CVPR 2023 ハイライト] InternImage: 変形可能な畳み込みを使用した大規模ビジョン基盤モデルの探索
[6] VNE: 固有値分布を操作して深い表現を改善する効果的な方法
[コード] GitHub - jaeill/CVPR23-VNE: CVPR 2023 論文の公式実装: 「VNE: 固有値分布の操作による深い表現の改善のための効果的な方法」
3、変圧器
[1]POTTER: 効率的なヒューマン メッシュ回復のためのプーリング アテンション トランスフォーマー
[コード] POTTER: 効率的なヒューマン メッシュ回復のためのプーリング アテンション トランスフォーマー
[2]FeatER: 特徴マップベースの TransformER による人間再構築のための効率的なネットワーク
[コード] https://zczcwh.github.io/feater_page/
[3]LiDARベースの3D認識のための球状トランスフォーマー
[コード] GitHub - dvlab-research/SphereFormer: 「LiDAR ベースの 3D 認識用の球形トランスフォーマー」(CVPR 2023) の公式実装。
[4]MELTR: ビデオ基盤モデルの微調整を学習するためのメタロストランスフォーマー
[コード] https://github.com/mlvlab/MELTR
[5]合成による分析によるトップダウンの視覚的注意
[コード] https://sites.google.com/view/absvit
[6]BiFormer: バイレベルルーティングアテンションを備えたビジョントランスフォーマー
[7] トークンのスパース化の観点からビジョン トランスフォーマーを効率化する
[コード]なし
[8] Visual Atoms: 正弦波によるビジョン トランスフォーマーの事前トレーニング
[コード]なし
[9]ビジョントランスフォーマーによる不均衡データの学習
[コード] https://github.com/XuZhengzhuo/LiVT
[10] SAP-DETR: 突極点とクエリベースのトランス検出器の間のギャップをブリッジして、高速モデル収束を実現
[コード] https://github.com/liuyang-ict/SAP-DETR。
[11] マスクされたジグソー パズル: ビジョン トランスフォーマーの多用途な位置埋め込み
[12]Lite DETR : 効率的な DETR のためのインターリーブ マルチスケール エンコーダー
[コード] https://github.com/IDEA-Research/Lite-DETR
[13] 統合的に事前トレーニングされたトランスフォーマー ピラミッド ネットワーク
[コード] GitHub - sunsmarterjie/iTPN: (CVPR2023) 統合的に事前トレーニングされたトランスフォーマー ピラミッド ネットワーク
[14]Sparsifiner: 効率的なビジョントランスフォーマーのためのスパースなインスタンス依存の注意の学習
[コード]なし
[15]CAT: オープンワールドの物体検出のための LoCalization および IdentificAtion カスケード検出トランスフォーマー
[コード] GitHub - xiaomabufei/CAT
[16] 3D 衣服アニメーションのアンカー変換の学習
[コード] AnchorDEF
[17]変圧器追跡のための一般化された関係モデリング
[コード] https://github.com/Little-Podi/GRM
[18] コンポーネント対応トランスフォーマーによる 1 段階の 3D 全身メッシュ復元
[コード]コンポーネント対応トランスフォーマーを使用した 1 段階の 3D 全身メッシュ回復
[19] トークン勾配正則化によるビジョントランスフォーマーに対する転送可能な敵対的攻撃
[コード]なし
[20] ビジョントランスフォーマーの残差を使用した表現力豊かなプロンプトの学習
[コード]なし
[21] ビジュアル依存関係トランスフォーマー: 逆の注意から依存関係ツリーが現れる
[コード] GitHub - dingmyu/DependencyViT: ビジュアル依存関係トランスフォーマー: 逆の注意から依存関係ツリーが出現 (CVPR 2023)
[22]MethaneMapper: メタン検出用のスペクトル吸収対応ハイパースペクトル変換器
[23]METransformer: 複数の学習可能なエキスパート トークンを使用した Transformer による放射線医学レポートの生成
[コード]なし
[24]Slide-Transformer: ローカルセルフアテンションを備えた階層型ビジョントランスフォーマー
[コード] GitHub - LeapLabTHU/Slide-Transformer: Slide-Transformer (CVPR2023) の公式リポジトリ
4. グラフニューラルネットワーク (GNN)
[1]強みを弱みに変える: グラフ ニューラル ネットワークに対する認定された堅牢性を重視した攻撃フレームワーク
[コード]なし
[2] ノード インタラクションからホップ インタラクションへ: 新しい効果的でスケーラブルなグラフ学習パラダイム
[コード] GitHub - JC-202/HopGNN
[3]拡張ベースのグラフ OOD 一般化のラベル シフトに注意する
[コード] GitHub - Samyu0304/LiSA: LiSA (CVPR 2023) は、モデルに依存しない Graph OOD フレームワークです。
[4]グラフニューラルネットワーク向けの敵対的に堅牢なニューラルアーキテクチャ検索
[コード]なし
5. ニューラル ネットワーク アーキテクチャ検索 (NAS)
[1]大規模で多様なデータセットに対する多項式暗黙的ニューラル表現
[コード] GitHub - Rajhans0/Poly_INR: CVPR'23 論文「大規模で多様なデータセットのための多項式暗黙的ニューラル表現」のコード
[2]PA&DA: 一貫性のある NAS のための PAth と DAta の共同サンプリング
[コード] GitHub - ShuLu91/PA-DA: [CVPR '23] PA&DA: 一貫した NAS のための PAth と DAta の共同サンプリング
[3]ステッチ可能なニューラルネットワーク
[コード]ステッチ可能なニューラル ネットワーク