Una revisión de vanguardia de la evaluación de la calidad de la imagen
La evaluación de la calidad de la imagen (IQA) incluye principalmente dos partes. Una es la evaluación de la calidad subjetiva, es decir, la evaluación de la percepción subjetiva de las imágenes por parte de las personas. Generalmente se describe cuantitativamente utilizando indicadores MOS o DMOS. La forma de obtenerla es a través de la psicología subjetiva. Experimento, establecer una base de datos de evaluación de la calidad de la imagen. Según diferentes tipos de distorsión, métodos experimentales, etc., los tipos de base de datos IQA son muy ricos; el otro es la evaluación de la calidad objetiva, el sujeto de evaluación es una máquina, generalmente un clasificador o regresor está diseñado para evaluar la imagen, un algoritmo de evaluación de la calidad de la imagen basado en aprendizaje profundo que ha sido ampliamente estudiado en la actualidad.
Este artículo resume principalmente los siguientes dos aspectos:
- Modelo IQA basado en aprendizaje profundo
- base de datos IQA
papel
El algoritmo objetivo de evaluación de la calidad de la imagen se divide principalmente en dos partes: una es NR-IQA, o IQA sin referencia, que es un algoritmo de evaluación de la calidad de la imagen sin referencia, y la otra es FR-IQA, que es IQA de referencia completa. que es una evaluación de calidad de imagen de referencia completa. A continuación se presenta un resumen de estas dos partes.
NR-IQA
A continuación enumero los algoritmos NR-IQA actualmente comunes en orden cronológico, como se muestra en la siguiente tabla:
Nombre del algoritmo | Tiempo de publicación/equipo | código | tipo | Google Académico | Idea principal |
---|---|---|---|---|---|
NIKE | SPL2012 | — | Tradición | – | |
BRISQUE | CONSEJO2012 | — | Tradición | – | |
ILNIQE | CONSEJO2015 | — | Tradición | – | |
HOSA | CONSEJO2016 | — | Tradición | – | |
NRQM (Ma) | CVIU2017 | matlab | Tradición | – | |
CNNIKA | CVPR2014 | — | DL | – | |
dipIQ | CONSEJO2017 | — | DL | – | |
MENTE | CONSEJO2017 | — | DL | – | |
RangoIQA | ICCV2017 | — | DL | – | |
QUÉ | CONSEJO2018 | — | DL | – | |
WaDIQaM (lo profundo) | CONSEJO2018 | — | DL | – | |
BPSQM | CVPR2018 | — | DL | – | |
HIQA | CVPR2018 | — | DL | – | |
Pi | Reto PIRM 2018 | — | DL | – | |
PQR | CONSEJO2019 | — | DL | – | |
SFA | TMM2019 | — | DL | – | |
DBCNN | TCSVT2020 | — | DL | – | |
GIQA | ECCV2020 | — | DL | – | |
Meta-IQA | CVPR2020 | — | DL | – | |
HiperIQA | CVPR2020 | — | DL | – | |
ÚNICO | CONSEJO2021 | — | DL | – | |
ERCDN | ICCV2021 | — | DL | – | |
MÚSICA | ICCV2021 | — | DL | – | |
KonIQ++ | BMVC2021 | — | DL | – |
FR-IQA
Nombre del algoritmo | hora de emisión | tipo | Google Académico | código | Idea principal |
---|---|---|---|---|---|
CVRKD | AAAI2022 | NAR | A | Oficial | |
IQT | CVPRW2021 | FR | C | PyTorch | Transformador |
DISTRITOS A | ACMM2021 | FR | A | Oficial | |
DISTS | TPAMI2021 | FR | t | Oficial | |
JND-SalCAR | TCSVT2020 | FR | t | ||
QADS | CONSEJO2019 | FR | t | Proyecto | |
LPIPS | CVPR2018 | FR | C | Proyecto | |
PieAPP | CVPR2018 | FR | C | Proyecto | |
wadiqam | CONSEJO2018 | NR/FR | t | Oficial | |
FSIM | CONSEJO2011 | FR | t | Proyecto | |
VIF/CFI | CONSEJO2006 | FR | DE | Proyecto | |
MS-SSIM | FR | Proyecto | |||
SÍ | CONSEJO2004 | FR | t | Proyecto | |
PSNR | – | FR |
otro
base de datos IQA
Las bases de datos de IQA se dividen principalmente en dos categorías: la base de datos principal de IQA y otras bases de datos relacionadas con el movimiento ocular y la estética.
- Las bases de datos principales incluyen principalmente: base de datos de distorsión única, base de datos de distorsión mixta, base de datos de diferentes equipos fotográficos y base de datos de distorsión real.
- Otras bases de datos incluyen principalmente: base de datos de movimientos oculares y base de datos de estética.
Base de datos principal de IQA
La siguiente es la base de datos principal de IQA, la explicaré con más detalle más adelante, por ahora resumiré la información principal.
Base de datos de nombres | hora de emisión | tipo | Google Académico | Enlace | ilustrar | Observación |
---|---|---|---|---|---|---|
PaQ-2-PiQ | CVPR2020 | distorsión real | CV | Github oficial | 40k, 120k parches | 4M |
SPAQ | CVPR2020 | – | CVPR2020 | Github oficial | 11k (teléfono inteligente) | |
KonIQ-10k | CONSEJO2020 | – | CONSEJO2020 | Proyecto | 10k desde YFCC100M | 1,2 m |
CLIVE | CONSEJO2016 | – | CONSEJO2016 | Proyecto | 1200 | 350k |
PIPAL | ECCV2020 | – | ECCV2020 | Proyecto | 250 | 1,13m |
KADIS-700k | arXiv | – | arXiv | Proyecto | 140k prístino / 700k distorsionado | 30 clasificaciones (DCR) por imagen. |
KADID-10k | QoMEX2019 | – | QoMEX2019 | Proyecto | 81 | 10k distorsiones |
Waterloo-Exp | CONSEJO2017 | – | CONSEJO2017 | Proyecto | 4744 | distorsiones de 94k |
MDID | PR2017 | – | PR2017 | — | 20 | 1600 distorsiones |
HORA2013 | SP2015 | – | SP2015 | Proyecto | 25 | 3000 distorsiones |
LIVEMD | ACSSC2012 | – | ACSSC2012 | Project | 15 pristine images | two successive distortions |
CSIQ | JEI2010 | – | sada | — | 30 | 866 distortions |
TID2008 | 2008 | – | 2009 | Project | 25 | 1700 distortions |
A57 | 2007 | – | 2005 | — | 10 | 185 distortions |
LIVE | TIP2006 | – | TIP2006 | Project | 29 images, 780 synthetic distortions | |
IVC | 2005 | – | 2005 | — | 10 | 185 distortions |