時事プラットフォームが提供する紙のリソースに感謝します
ECCV 2022 が公開され、合計 1629 の論文が採択され、採択率は 20% 未満です。誰もがコンピューター ビジョンの最先端技術をより早く習得して学習できるようにするために、著者は、さまざまな研究方向の論文やコードの要約など、ECCV2022 の最新論文を追跡しています。
この更新された ECCV 2022 ペーパーには、検出、セグメンテーション、画像処理、ビデオの理解、ニューラル ネットワーク構造の設計、教師なし学習、自己教師あり学習、転移学習、およびその他の方向性が含まれています。プロジェクトのアドレス: https://github.com/extreme-assistant/ECCV2022-Paper-Code-Interpretation
- 検出
- 分割
- 画像処理
- ビデオ処理
- 画像とビデオの検索と理解
- 見積もり
- ターゲット追跡
- テキストの検出と認識
- GAN/ジェネレーティブ/敵対的
- ニューラル ネットワーク構造の設計
- 情報処理
- モデルのトレーニング/一般化
- モデル圧縮
- モデル評価
- 半教師あり学習 / 自己教師あり学習
- マルチモーダル/クロスモーダル学習
- 数ショット学習
- 強化学習
検出
2D オブジェクト検出
[1] Point-to-Box Network for Accurate Object Detection via Single Point Supervision (point-to-box network for accuracy target detection through single-point Supervision) 論文: https://arxiv.org/abs/2207.06827 コード
: https
: / / /github.com/ucas-vg/p2bnet
[2] You Should Look at All Objects (You should look at all objects)
論文: https://arxiv.org/abs/2207.07889
コード: https://github.com/charlespikachu/yslao
[3] Adversarially-Aware Robust Object Detector (Adversarial Perception Robust Object Detector)
論文: https://arxiv.org/abs/2207.06202
コード: https://github.com/7eu7d7/robustdet
3D オブジェクト検出
[1] Rethinking IoU-based Optimization for Single-stage 3D Object Detection (IoU ベースのシングル ステージ 3D オブジェクト検出最適化の再考) ペーパー
: https://arxiv.org/abs/2207.09332
ヒューマン インタラクションの検出
[1] TOwards Hard-Positive Query Mining for DETR-based Human-Object Interaction Detection (ハード クエリ マイニング for DETR ベースの人間とコンピューターの相互作用検出) 論文: https://arxiv.org/abs/2207.05293 コード
: https
: / /github.com/muchhair/hqm
画像異常検出
[1] DICE: 分布外検出のためのスパース化の活用 (DICE: 分布外検出のためのスパース化の活用)
論文: https://arxiv.org/abs/2111.09805
コード: https://github.com/ディープラーニング - wisc/dice
分割
インスタンスのセグメンテーション
[1] Box-supervised Instance Segmentation with Level Set Evolution (レベル セット進化によるボックス監視インスタンス セグメンテーション)
ペーパー: https://arxiv.org/abs/2207.09055
[2] OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers (OSFormer: Using Transformers for single-stage camouflaged instance segmentation)
論文: https://arxiv.org/abs/2207.02255
コード: https://github.com/pjlallen /オスフォーマー
セマンティック セグメンテーション
[1] 2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds (2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds)
論文: https://arxiv.org/abs/2207.04397
コード: https://github.com/ yanx27/2dpass
ビデオ オブジェクト セグメンテーション
[1] Learning Quality-aware Dynamic Memory for Video Object Segmentation (learning quality-aware dynamic memory for video object segmentation)
論文: https://arxiv.org/abs/2207.07922
コード: https://github.com/workforai/ qdmn
画像処理
超解像
[1] Dynamic Dual Trainable Bounds for Ultra-low Precision Super-Resolution Networks (Dynamic Dual Trainable Bounds for Ultra-low Precision Super-Resolution Networks)
論文: https://arxiv.org/abs/2203.03844
コード: https:// github.com/zysxmu/ddtb
画像のノイズ除去
[1] Deep Semantic Statistics Matching (D2SM) Denoising Network (Deep Semantic Statistics Matching (D2SM) Denoising Network)
論文: https://arxiv.org/abs/2207.09302
画像復元/画像強調/画像再構成
[1] Semantic-Sparse Colorization Network for Deep Exemplar-based Colorization (Semantic Sparse Colorization Network for Deep Exemplar-based Colorization)
論文: https://arxiv.org/abs/2112.01335
[2] Geometry-aware Single-image Full-body Human Relighting (Geometry-aware Single-image Full-body Human Relighting)
論文: https://arxiv.org/abs/2207.04750
[3] Multi-Modal Masked Pre-Training for Monoocular Panoramic Depth Completion (単眼パノラマ深度完了のためのマルチモーダル マスク プレトレーニング)
論文: https://arxiv.org/abs/2203.09855
[4] PanoFormer: Panorama Transformer for Indoor 360 Depth Estimation (PanoFormer: Panorama Transformer for Indoor 360 Depth Estimation)
論文: https://arxiv.org/abs/2203.09283
[5] SESS: Scaling and Sliding による Saliency Enhancing (SESS: Enhancing Saliency with Scaling and Sliding)
論文: https://arxiv.org/abs/2207.01769
[6] RigNet: Repetitive Image Guided Network for Depth Completion (RigNet: Repeated Image Guided Network for Depth Completion)
論文: https://arxiv.org/abs/2107.13802
画像アウトペインティング
[1] Outpainting by Queries (クエリによるアウトソーシング)
論文: https://arxiv.org/abs/2207.05312
コード: https://github.com/kaiseem/queryotr
スタイルトランスファー
[1] CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer (CCPL: Contrastive Coherence Preserving Loss for General Style Transfer)
論文: https://arxiv.org/abs/2207.04808
コード: https://github.com/JarrentWu1031 / CCPL
ビデオ処理
[1] Improving the Perceptual Quality of 2D Animation Interpolation (2 次元アニメーション補間の知覚品質の向上)
論文: https://arxiv.org/abs/2111.12792
コード: https://github.com/shuhongchen/eisai-アニメ補間
[2] Real-Time Intermediate Flow Estimation for Video Frame Interpolation (ビデオ フレーム補間のリアルタイム中間フロー推定)
論文: https://arxiv.org/abs/2011.06294
コード: https://github.com/MegEngine/ arXiv2020-RIFE
画像とビデオの検索と理解
行動認識
[1] ReAct: Temporal Action Detection with Relational Queries (ReAct: Temporal Action Detection using Relational Queries)
論文: https://arxiv.org/abs/2207.07097
コード: https://github.com/sssste/react
[2] 社会的グループ活動認識のためのトランスフォーマーによるグループ手がかりのハンティング (トランスフォーマーを使用して、社会的グループ活動認識のためのグループの手がかりを見つけます)
論文: https://arxiv.org/abs/2207.05254
ビデオ理解
[1] GraphVid: It Only Takes a Few Nodes to Understanding a Video (GraphVid: It Only Takes a Few Nodes to Understanding a Video)
ペーパー: https://arxiv.org/abs/2207.01375
[2] Deep Hash Distillation for Image Retrieval (画像検索のためのディープ ハッシュ蒸留)
論文: https://arxiv.org/abs/2112.08816
コード: https://github.com/youngkyunjang/deep-hash-distillation
ビデオ検索
[1] TS2-Net: Token Shift and Selection Transformer for Text-Video Retrieval (TS2-Net: Token Shift and Selection Transformer for Text Video Retrieval)
論文: https://arxiv.org/abs/2207.07852
コード: https:/ /github.com/yuqi657/ts2_net
[2] Lightweight Attentional Feature Fusion: A New Baseline for Text-to-Video Retrieval (Lightweight Attention Feature Fusion: A New Baseline for Text-to-Video Retrieval) 論文
: https://arxiv.org/abs/2112.01832
見積もり
姿勢推定
[1] カテゴリ レベルの 6D オブジェクトのポーズとサイズの推定 (自己教師ありのディープ プライア デフォーメーション ネットワークを使用したカテゴリ レベルの 6D オブジェクトのポーズとサイズの推定) 論文
: https://arxiv.org/abs /2207.05444
コード: https://github.com/jiehonglin/self-dpdn
深度推定
[1] 最適な敵対パッチを使用した単眼深度推定に対する物理攻撃 (最適敵対パッチを使用した単眼深度推定に対する物理攻撃)
論文: https://arxiv.org/abs/2207.04718
ターゲット追跡
[1] オブジェクト追跡の大統一に向けて (ターゲット追跡の大統一に向けて)
論文: https://arxiv.org/abs/2207.07078
コード: https://github.com/masterbin-iiau/unicorn
テキストの検出と認識
[1] コスト効率の高いエンド ツー エンド テキスト スポッティングのための動的低解像度蒸留 (費用対効果の高いエンド ツー エンド テキスト認識のための動的低解像度蒸留) 論文
: https://arxiv.org/abs/2207.06694
コード: https://github.com/hikopensource/davar-lab-ocr
GAN/ジェネレーティブ/敵対的
[1] 参照ベースの線画着色におけるグラデーション競合の排除 (参照ベースの線画着色におけるグラデーション競合の排除)
論文:https://arxiv.org/abs/2207.06095
コード:https://github.com/kunkun0w0/sga
[2] WaveGAN: Frequency-aware GAN for High-Fidelity Few-shot Image Generation (WaveGAN: Frequency-aware GAN for High-Fidelity Few-shot Image Generation) 論文:
https://arxiv.org/abs/2207.07288コード
: https://github.com/kobeshegu/eccv2022_wavegan
[3] FakeCLR: Exploring Contrastive Learning for Solving Latent Discontinuity in Data-Efficient GANs (FakeCLR: Exploring Contrastive Learning for Solving Latent Discontinuity in Data-Efficient GANs) 論文: https://arxiv.org/abs/2207.08630
コード:
https : //github.com/iceli1007/fakeclr
[4] UniCR: Randomized Smoothing による Universallyapproximate Certified Robustness (UniCR: Universallyapproximate Certified Robustness via Random Smoothing)
論文: https://arxiv.org/abs/2207.02152
ニューラル ネットワーク構造の設計
ニューラル ネットワーク アーキテクチャ検索 (NAS)
[1] ScaleNet: Searching for the Model to Scale (ScaleNet: Searching for the Model to Scale)
論文: https://arxiv.org/abs/2207.07267
コード: https://github.com/luminolx/scalenet
[2] Ensemble Knowledge Guided Sub-network Search and Fine-tuning for Filter Pruning (統合ナレッジガイド サブネットワーク検索とフィルター プルーニング微調整) 論文
: https://arxiv.org/abs/2203.02651
コード: https: // github.com/sseung0703/ekg
[3] EAGAN: Efficient Two-stage Evolutionary Architecture Search for GANs (EAGAN: Efficient Two-stage Evolutionary Architecture Search for GAN)
論文: https://arxiv.org/abs/2111.15097
コード: https://github.com/ marsggbo/イーガン
情報処理
正規化
[1] Fine-grained Data Distribution Alignment for Post-Training Quantization (トレーニング後に定量化された細かいデータ分布アライメント)
論文: https://arxiv.org/abs/2109.04186
コード: https://github.com/zysxmu/ fdda
モデルのトレーニング/一般化
ノイズ ラベル
[1] Learning with Noisy Labels by Efficient Transition Matrix Estimation to Combat Label Miscorrection (Learning Noisy Labels by Efficient Transition Matrix Estimation to Combat Label Miscorrection)
論文: https://arxiv.org/abs/2111.14932
モデル圧縮
知識の蒸留
[1] Knowledge Condensation Distillation(知識濃縮蒸留)
論文: https: //arxiv.org/abs/2207.05409
コード: https: //github.com/dzy3/kcd
モデル評価
[1] Hierarchical Latent Structure for Multi-Modal Vehicle Trajectory Forecasting (Hierarchical Latent Structure for Multi-Modal Vehicle Trajectory Prediction)
論文: https://arxiv.org/abs/2207.04624
コード: https://github.com/d1024choi/ hlstrajforecast
半教師あり学習/教師なし学習/自己教師あり学習
[1] FedX: Unsupervised Federated Learning with Cross Knowledge Distillation (FedX: Unsupervised Joint Learning with Cross Knowledge Distillation)
論文: https://arxiv.org/abs/2207.09158
[2] Synergistic Self-supervised and Quantization Learning (共同自己教師ありおよび定量的学習)
論文: https://arxiv.org/abs/2207.05432
コード: https://github.com/megvii-research/ssql-eccv2022
[3] Contrastive Deep Supervision (対照的な深い監督)
論文: https://arxiv.org/abs/2207.05306
コード: https://github.com/archiplab-linfengzhang/contrastive-deep-supervision
[4] Dense Teacher: Dense Pseudo-Labels for Semi-Supervised Object Detection (Dense Teacher: Dense Pseudo-Labels for Semi-supervised Object Detection)
論文:https://arxiv.org/abs/2207.02541
[1] Image Coding for Machines with Omnipotent Feature Learning (全能機能学習を備えた機械のイメージ コーディング)
論文: https://arxiv.org/abs/2207.01932
マルチモーダル学習/クロスモーダル
視覚言語
[1] Contrastive Vision-Language Pre-training with Limited Resources (contrastive visual language pre-training with limited resources)
論文: https://arxiv.org/abs/2112.09331
コード: https://github.com/zerovl/zerovl
クロスモーダル
[1] Cross-modal Prototype Driven Network for Radiology Report Generation (クロスモーダル プロトタイプ駆動ネットワーク フォー ラジオロジー レポート生成)
論文: https://arxiv.org/abs/2207.04818v1
コード: https://github.com/ markin-wang/xpronet
数ショット学習
[1] Learning Instance and Task-Aware Dynamic Kernels for Few Shot Learning (Learning Instance and Task-Aware Dynamic Kernels for Few Shot Learning)
論文: https://arxiv.org/abs/2112.03494
転移学習/適応
[1] Factorizing Knowledge in Neural Networks (ニューラル ネットワークでの知識の分解)
論文: https://arxiv.org/abs/2207.03337
コード: https://github.com/adamdad/knowledgefactor
[2] CycDA: Unsupervised Cycle Domain Adaptation from Image to Video (CycDA: Unsupervised Cycle Domain Adaptation from Image to Video)
論文: https://arxiv.org/abs/2203.16244
強化学習
[1] Target-absent Human Attention (Missing Target-Human Attention Loss)
論文: https://arxiv.org/abs/2207.01166
コード: https://github.com/neouyghur/sess