Experimento de Visão Computacional: Projeto de Sistema de Reconhecimento Facial

conteúdo experimental

O projeto de um sistema de reconhecimento de alvos de visão computacional está relacionado a aplicações práticas (sugestão: a forma de exibição final é um sistema com uma interface que pode ser executada), e um dos seguintes conteúdos deve ser selecionado.

1. Projeto do sistema de reconhecimento facial

(1) Projeto do sistema de reconhecimento facial (obrigatório): De acordo com o conhecimento teórico aprendido em aula (incluindo extração de recursos e projeto do classificador), projete um sistema de reconhecimento facial com uma boa taxa de reconhecimento. Os experimentos podem ser realizados no conjunto de dados de imagem facial AR fornecido ( 120 pessoas), conjunto de dados de imagem facial Feret ( 175 pessoas), conjunto de dados de vídeo facial ( 10 pessoas), vídeo facial real ou outros conjuntos de dados públicos.

(2) Melhoria do sistema de reconhecimento facial (escolha pelo menos uma das perguntas a fazer): o sistema de reconhecimento facial para o ambiente real considerará mais links, incluindo pré-processamento de imagem, extração de recursos, seleção de recursos, design do classificador, treinamento e teste espere. Os algoritmos de reconhecimento facial encontrarão os seguintes problemas em aplicações reais, incluindo interferência de ruído, mudanças de iluminação, efeitos de oclusão e mudanças de ângulo. Discuta pelo menos um dos problemas acima (como interferência de ruído, mudanças de iluminação, efeitos de oclusão e mudanças de ângulo), analise o que causa o declínio do desempenho do reconhecimento e proponha métodos para melhorar o desempenho do sistema de reconhecimento facial e melhorar o o tratamento do sistema de situações anormais.Capacidade de fazer com que a adaptabilidade e estabilidade de todo o sistema de identificação cheguem a um estado melhor.

dica:

  1. Em termos de interferência de ruído, podem ser considerados algoritmos de aprimoramento de imagem, incluindo filtragem mediana, filtragem média, filtragem gaussiana, etc.;
  2. Em termos de mudanças de iluminação, pode-se considerar o algoritmo LBP e sua versão estendida , ou algoritmos de aprimoramento de imagem, como equalização de histograma, transformação gama, etc.;
  3. Em termos de efeitos de oclusão, considere votar em blocos de imagem ou identificar áreas de oclusão em uma representação linear com o menor erro residual;
  4. Em termos de mudança de ângulo, você pode considerar adicionar imagens de amostragem em diferentes ângulos ou introduzir considerações de transformação afim;
  5. Para extração de recursos, métodos como recursos de Gabor , autofaces e recursos de profundidade podem ser usados;
  6. O design do classificador pode usar classificador bayesiano, rede neural e outros métodos;
  7. O conjunto de dados de rosto AR e o conjunto de dados de rosto Feret podem ser usados ​​para testar o desempenho do algoritmo sob interferência de ruído (o ruído precisa ser adicionado artificialmente), mudanças de iluminação, efeitos de oclusão e mudanças de ângulo. Com base nisso, o sistema de reconhecimento pode ser testado em um ambiente real.
  8. Você pode escolher um detector facial ou introduzir uma transformação afim de acordo com suas necessidades. Este experimento fornece um detector Haar e um detector facial baseado em transformação afim.
  9. Descrição do conjunto de dados de face:

Conjunto de dados de rosto AR : contém 120 pessoas, 26 fotos por pessoa, resolução de imagem largura 80 , altura 100 , pode testar o desempenho do algoritmo sob mudanças de iluminação e oclusão.   

Conjunto de dados de rosto Feret : contém 175 pessoas, 7 fotos por pessoa, resolução de imagem largura 80 , altura 80 , pode testar o desempenho do algoritmo sob diferentes ângulos e mudanças de iluminação.

Conjunto de dados de vídeo facial: contém vídeos de 10 pessoas. Cada pessoa tem uma sequência de vídeo de treinamento e uma sequência de vídeo de teste, que pode testar o desempenho do algoritmo sob diferentes ângulos, mudanças de iluminação, interferência de oclusão e interferência de ruído.

Coleta de dados de face real: pode ser tomada de acordo com a situação real do sistema.

(3) Analisar a diferença no design de algoritmos de reconhecimento no ambiente de laboratório e no ambiente natural e como melhorar a inovação do algoritmo? (opcional)

2. Conteúdo de identificação de alvo auto-selecionado, tópico criado por você

Etapas experimentais e processo

Projeto de sistema de reconhecimento facial

  O ponto chave do reconhecimento facial é a extração de características.Comparado com a coleta de dados, pré-processamento e seleção do classificador, a extração de características é a mais exclusiva e a principal diferença entre vários sistemas de reconhecimento facial. Métodos comuns de extração de características faciais incluem método de histograma de padrão binário local, método de filtro de Gabor , métodos estatísticos ( PCA , LDA ), método de características de textura, etc. Neste experimento, escolhi o método discriminante linear LDA para extração de características. Ao mesmo tempo, antes da extração de recursos, usei o detector facial Haar para detectar e localizar o rosto e, em seguida, alinhei os rostos. Após a extração, o classificador KNN é usado para classificar e identificar as feições. Sua idéia geral é mostrada na Figura 1 .

Figura 1 Diagrama de ideia do sistema de reconhecimento facial

Importação do conjunto de dados

  Três conjuntos de dados são fornecidos no tópico, entre os quais os conjuntos de dados AR e feret são conjuntos de dados faciais padrão e o conjunto de dados de vídeo é um conjunto de dados extraído de vídeos. As informações do conjunto de dados são mostradas na Figura 2 abaixo .

Figura 2 Informações básicas dos três conjuntos de dados

Use o método de passagem de arquivo para ler todas as imagens por meio do opencv e, finalmente, passe-as para o módulo de pré-processamento de imagem para processamento. No código, o módulo de leitura de dados pertence à função load_dataset na classe Face_reg . Esta função recebe quatro parâmetros, onde path representa o caminho do conjunto de dados, trun representa os primeiros dígitos do nome do arquivo interceptado como a categoria, mode representa o modo de redefinição ou modo de adição, 1 representa redefinir, 0 representa adicionar, formato representa o tipo de estrutura de arquivo de conjunto de dados 1 Representa a estrutura de AR e feret 0 representa a estrutura do conjunto de dados de vídeo.

pré-processamento de imagem

No módulo de pré-processamento de imagem, operações como transformação de escala de cinza, transformação afim para corrigir o ângulo, posicionamento e corte da face, equalização de histograma e ajuste do tamanho da imagem são executadas na imagem. A idéia é mostrada na Figura 3 abaixo .

Figura 3 Diagrama esquemático do pré-processamento de imagem

1. Transformação em tons de cinza

A conversão de uma imagem colorida em uma imagem em tons de cinza reduz a complexidade computacional e melhora o desempenho do reconhecimento. O resultado após a conversão é mostrado na figura abaixo. A imagem à esquerda é a imagem original e a imagem à direita é o resultado transformado em tons de cinza.

Figura 4 mapa de transformação em tons de cinza

2. Ângulo de correção de transformação afim

Após a transformação em tons de cinza, a transformação afim é usada para corrigir o ângulo da face. O princípio de correção de ângulo aqui é ajustar o ângulo da imagem de acordo com as coordenadas relativas dos olhos, de modo que a posição dos principais pontos de recurso seja relativamente fixa, o que é conveniente para extração e correspondência de recursos. A detecção de pontos de recursos usa principalmente o modelo ' shape_predictor_68_face_landmarks ' da dlib . O resultado da transformação afim é mostrado na Figura 5 abaixo .

Figura 5 Mapa de resultados da transformação afim

3. Posicionamento e recorte do rosto

  Para a detecção e posicionamento de rostos, usei o já treinado detector facial Haar . O detector facial Haar também é conhecido como detector Viola-Jones , que foi proposto em 2001 . Este detector detecta e localiza rostos por meio de janelas deslizantes e extrai recursos Haar . A Figura 6 abaixo é o resultado após a detecção e extração.

Figura 6 Posicionamento do rosto e resultados do corte

4. Equalização do histograma

Em algumas imagens, muitas vezes devido a mudanças de iluminação, a imagem fica muito clara ou Guo An, tornando certos detalhes incapazes de se destacar. Portanto, o processo de equalização do histograma pode ser realizado na imagem, para que o valor do brilho fique uniforme, para que o brilho seja uniforme e a influência da mudança de brilho seja reduzida. A Figura 7 abaixo mostra o resultado da equalização do histograma.

Figura 7 Equalização do histograma

5. Redimensionamento de imagem

Ao usar o LDA para redução de dimensionalidade, o modelo exige que o número de recursos seja o mesmo e, aqui, o valor de brilho unidimensional da imagem é usado diretamente como o recurso. Portanto, a imagem precisa ser ajustada aqui para que o tamanho da imagem de entrada seja consistente.

extração de características

  Em termos de extração de recursos, o LDA é usado para reduzir a dimensionalidade da sequência unidimensional em tons de cinza da imagem e, finalmente, até 25 recursos. Além disso, o uso de features LBP e Garbor foi considerado , mas os resultados finais não são bons. A figura abaixo mostra a ideia geral.

 

Figura 8 extração de recursos

1. Extração de recursos

  • Achatando o valor de cinza: Os dados obtidos pelo pré-processamento da imagem são uma matriz bidimensional de 80 x 80 e, para extrair melhor os recursos, a matriz bidimensional precisa ser achatada em uma lista unidimensional. Em seguida, execute a redução de dimensionalidade.
  • Extração de características LBP : Depois de calcular o mapa de características LBP, ele é nivelado e, em seguida, inserido no LDA para treinamento de redução de dimensionalidade.
  • Extração de recurso Garbor : A filtragem Garbor é executada na imagem para calcular o valor médio como entrada de recurso.

2. Redução da dimensionalidade LDA

  Na extração de recursos acima, como os dois últimos não são efetivos, apenas o primeiro é selecionado como o recurso para redução de dimensionalidade. O método de redução de dimensionalidade utilizado é o discriminante linear LDA . O princípio é mapear dados de alta dimensão para um espaço de baixa dimensão por meio de uma projeção linear, de modo que amostras de diferentes categorias tenham uma distância interclasse maior no espaço projetado (ou seja, a distância entre diferentes categorias é maior), enquanto mantém A distância intraclasse entre amostras da mesma classe é pequena. Isso pode melhorar a precisão da classificação. Aqui, após alguns ajustes , 25 é finalmente selecionado como a dimensão de redução de dimensionalidade. A taxa de precisão abaixo de 25 diminuirá, mas não haverá melhora significativa acima de 25 .

Projeto e treinamento do classificador

1. Projeto do classificador

  Em termos de seleção do classificador, escolhi o algoritmo K- vizinho mais próximo com um princípio simples. É simples e intuitivo, altamente flexível e pode ter bons resultados. Ele determina principalmente a categoria da amostra pela distância entre cada ponto amostral e os pontos circundantes.

2. Otimização de parâmetros

No reconhecimento facial, escolher um valor apropriado de K é crucial para o desempenho da classificação. Se você escolher um valor K muito pequeno , o resultado da classificação pode ser sensível ao ruído, resultando em overfitting. Se você escolher um valor de K muito grande , isso pode tornar o limite de classificação muito indistinto, resultando em subajuste. Então, aqui eu usei uma pesquisa de grade para encontrar o melhor valor de K tentando diferentes valores de K ( 1-10 ) . Em última análise, pode nos ajudar a escolher um valor de K com bom desempenho nos dados de treinamento e com melhor capacidade de generalização , melhorando assim o desempenho da classificação do reconhecimento facial.

Melhoria do sistema de reconhecimento facial

Resultado sem otimização

  No projeto inicial do sistema, muito pré-processamento de imagem não foi considerado. Ao mesmo tempo, a seleção de parâmetros de LDA e KNN não é considerada. Use 80% dos dados para treinamento e 20% para avaliação. Os resultados de sua avaliação são apresentados a seguir.

 

Figura 9 Precisão antes da otimização

Pode-se ver que as taxas de precisão dos três conjuntos de dados são todas superiores a 0,8 , indicando que eles têm certa precisão. A precisão geral do conjunto de dados de vídeo facial é maior do que a dos outros dois conjuntos de dados. Observando o conjunto de dados, podemos descobrir que os rostos no conjunto de dados de vídeo facial são relativamente estáveis ​​e têm menos categorias, enquanto os rostos nos outros dois conjuntos de dados têm mais alterações, como expressões, oclusões e direções. Portanto, o conjunto de dados de vídeo facial terá um efeito melhor relativamente.

O problema do modelo

  Para encontrar o problema, analise as imagens previstas incorretamente da seguinte maneira.

 

Figura 10 Rostos mal previstos

Com base nas questões acima, elas podem ser organizadas na tabela a seguir. e propor soluções correspondentes.

 Há um problema

solução

efeito da solução

Alterações de expressão afetam o reconhecimento

Soluções com sub-representação dos mesmos recursos

O efeito da sub-representação dos mesmos recursos

A Direção do Tiro Afeta o Reconhecimento

1. Adicionar recursos LBP

2. Ângulo de correção de transformação afim

O efeito do recurso LBP não é bom , o que reduz a taxa de precisão, por isso é descartado .

sub-representação

1. Aumente a dimensionalidade da saída LDA

2. Extraia recursos de Garbor ( valor médio )

1. A taxa de precisão torna-se superior a 90% quando a dimensão é aumentada de 9 para 25 , e o efeito é o mesmo para dimensões acima de 25 .

2. O efeito não é óbvio após adicionar o recurso Garbor

Mudanças de luz afetam o reconhecimento

Aplique equalização de histograma à imagem para uniformizar o brilho

É eficaz para rostos mal avaliados por problemas de luz , mas causa erros de julgamento de outras imagens

Capa de óculos de sol afeta o reconhecimento

Soluções com sub-representação dos mesmos recursos

O efeito da sub-representação dos mesmos recursos

O problema do modelo

Os resultados da melhoria final do sistema são mostrados abaixo. Pode-se ver que, após a otimização, o efeito dos dois primeiros conjuntos de dados aumenta para mais de 0,9 e sua taxa de precisão é bastante aprimorada. No entanto, não há melhoria para o conjunto de dados de vídeo, porque um ponto-chave no processo de otimização é a dimensão remanescente da redução de dimensionalidade. Como o LDA exige que a dimensão seja menor ou igual ao número de categorias e há apenas 10 categorias no conjunto de dados de vídeo facial , a dimensão só pode ser mantida em 10 , portanto, a taxa de precisão não tem dicas. Enquanto os outros dois conjuntos de dados melhoraram.

 

Figura 10 Indicadores otimizados

Sistema de reconhecimento facial baseado em deep learning

  Nos últimos dez anos, o algoritmo tradicional de aprendizado de máquina tem sido o método dominante do sistema de reconhecimento facial. No entanto, com a melhoria do poder de computação do computador, o método de aprendizado profundo tornou-se o método mais popular no momento. A seguir apresentará os atuais modelos comuns de reconhecimento facial e reproduzirá o modelo FaceNet.

Modelos comuns de reconhecimento facial

1. DeepFace

Lançado em 2014 , o modelo DeepFace é um modelo de reconhecimento facial baseado em aprendizado profundo. O DeepFace primeiro usa algoritmos tradicionais de detecção de rosto para localizar rostos em imagens e, em seguida, alinha os rostos detectados para garantir poses consistentes durante a extração de recursos. As imagens faciais alinhadas são inseridas em uma rede neural convolucional profunda para extração de recursos. Por meio da camada convolucional e da camada totalmente conectada, o DeepFace aprende um vetor de recursos de 128 dimensões para representar cada imagem facial. No estágio de reconhecimento facial, ele usa os vetores de recursos aprendidos para comparação. Ele calcula a similaridade do vetor de característica entre a face a ser reconhecida e a face conhecida, geralmente usando similaridade de cosseno como medida de similaridade. Se a semelhança entre o vetor de características da face a ser reconhecida e o vetor de características de uma face conhecida exceder um certo limite, pode-se determinar que eles pertencem à mesma pessoa.

Figura 11 Diagrama da estrutura do DeepFace

2. FaceNet

FaceNet é um modelo de reconhecimento facial baseado em aprendizado profundo lançado pelo Google em 2015 . Ele usa uma rede neural convolucional profunda para extrair vetores de recursos de alta dimensão de faces e treina com uma função de perda de trigêmeos para otimizar a representação de recursos. Ao maximizar a semelhança entre vetores de características da mesma face e minimizar a semelhança entre vetores de características de diferentes faces, os vetores de características aprendidos pelo FaceNet têm a capacidade de distinguir diferentes faces. Na etapa de reconhecimento da face, o reconhecimento pode ser feito calculando-se a distância entre o vetor de características da face a ser reconhecida e o vetor de características da face conhecida, quanto menor a distância, maior o grau de correspondência.

Figura 12 Estrutura do modelo FaceNet

3. ArcFace

ArcFace é um modelo de deep learning para reconhecimento facial, lançado em 2019 . Otimiza a representação de autovetores por distância angular do cosseno. Diferente dos modelos tradicionais, o ArcFace considera as informações de ângulo dos vetores de características, tornando os vetores de características de uma mesma face mais próximos e os vetores de características de diferentes faces mais distantes. Esse design faz com que o ArcFace tenha um bom desempenho em tarefas de reconhecimento facial e tenha alcançado alta precisão e robustez.

Figura 13 Estrutura do modelo ArcFace

reprodução do modelo

  Aqui eu escolhi FaceNet para reprodução, e seu código é principalmente referenciado em: GitHub - timesler/facenet-pytorch: modelos de detecção de face Pytorch pré-treinada (MTCNN) e reconhecimento facial (InceptionResnet)

Aqui estão os passos para reproduzir:

1. Instalação do ambiente

(1) Instale o facenet-pytorch

FaceNet fornece o pacote python correspondente , que pode ser instalado diretamente usando pip . O comando de instalação é o seguinte:

pip instalar facenet-pytorch

Deve-se observar que, como o FaceNet depende do ambiente pytorch , é necessário implementar o ambiente em que o pytorch está instalado .

(2) Importar arquivos de biblioteca

Após a conclusão, você pode usar a seguinte instrução para importar o modelo: Se a importação for bem-sucedida, a instalação estará concluída.

#Carregue o detector facial e o extrator de recursos
mtcnn = MTCNN()
resnet = InceptionResnetV1(
pretrained = 'vggface2' ).eval()

2. Registro facial

O FaceNet fornece um modelo pré-treinado. Como ele é usado apenas como uma parte estendida do experimento, o modelo pré-treinado é carregado diretamente. Após a conclusão do carregamento, nossa biblioteca de faces atual está vazia, então precisamos inserir a face primeiro. A entrada de rosto aqui é principalmente para extrair os recursos de um rosto padrão. Ele primeiro executa algum pré-processamento na imagem e, em seguida, detecta e recorta a face e alinha a face. Em seguida, chame a função do modelo para obter diretamente seus recursos e, finalmente, armazene-o em uma lista.

3. Reconhecimento facial

Depois que o rosto é inserido, o próximo passo é reconhecer o rosto desconhecido. A ideia de reconhecimento é semelhante à de entrada de rosto: primeiro, a imagem é pré-processada, depois o rosto é localizado e recortado e, finalmente, os recursos são extraídos para classificação. Veja 'FaceNet.py' para código específico .

Construção de plataformas de visualização

  Mesmo que um sistema de reconhecimento facial tenha a melhor precisão e eficiência, se não houver aplicativo e plataforma de visualização correspondentes, não será um sistema melhor. Portanto, as estruturas vue e flask são usadas aqui para construir a plataforma da web on-line de reconhecimento facial da web correspondente.

Projeto do sistema de visualização

  O núcleo do sistema é o objeto face_reg encapsulado, usando Flask do python como estrutura de back-end e vue como estrutura de front-end por meio da interface API . Depois que o usuário carrega a imagem, a imagem é enviada de volta para o back-end e a função de classificação é chamada para classificar a categoria facial. Finalmente, o resultado é passado de volta para a página da web. A figura abaixo mostra a ideia do sistema de visualização.

 

Figura 14 Ideias de design do sistema de visualização

implementação de back-end

  O back-end é usado principalmente para receber a imagem enviada de volta do front-end e para cortar e prever a localização do rosto da imagem. Ao mesmo tempo, as imagens retornadas pelo front-end serão armazenadas no servidor e, finalmente, o back-end retornará o link da imagem e o rótulo previsto para o front-end para exibição. A figura abaixo mostra a ideia do design do back-end.

 

Figura 15 mapa de ideias de back-end

Implementação front-end

  O front-end usa a estrutura vue3 e usa componentes element-plus , axios e outras ferramentas. O front-end projeta principalmente a página visual e completa a lógica de upload e recepção de imagens ao mesmo tempo. A figura abaixo é o diagrama de efeito da realização.

Figura 16 diagrama de efeito de visualização de front-end

referências:

[1] Zhao, W., Chellappa, R., Phillips, PJ e Rosenfeld, A. (2003). Reconhecimento facial: Uma pesquisa bibliográfica. ACM Computing Surveys (CSUR), 35(4), 399-458.

[2] Taigman Y, Yang M, Ranzato MA, et al. Deepface: fechando a lacuna para o desempenho de nível humano na verificação facial[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognization. 2014: 1701-1708.

[3] Schroff F, Kalenichenko D, Philbin J. Facenet: Uma incorporação unificada para reconhecimento facial e agrupamento[C]//Anais da conferência IEEE sobre visão computacional e reconhecimento de padrões. 2015: 815-823.

[4] Deng J, Guo J, Xue N, et al. Arcface: Perda de margem angular aditiva para reconhecimento facial profundo 2019: 4690-4699.

[5] Jain, AK, Ross, A., & Prabhakar, S. (2004). Uma introdução ao reconhecimento biométrico. IEEE Transactions on Circuits and Systems for Video Technology, 14(1), 4-20.

[6]Zhang, D., & Zhou, ZH (2011). Reconhecimento facial: Uma pesquisa bibliográfica. ACM Computing Surveys (CSUR), 43(3), 1-52.

[7] Ma, L., Tan, T., Wang, Y., & Zhang, D. (2003). Identificação pessoal baseada na análise da textura da íris. IEEE Transactions on Pattern Analysis and Machine Intelligence, 25(12), 1519-1533.

[8] Turk, M., & Pentland, A. (1991). Reconhecimento facial usando autofaces. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 586-591.

[9] Belhumeur, PN, Hespanha, JP, & Kriegman, DJ (1997). Eigenfaces vs. Fisherfaces: Reconhecimento usando projeção linear específica de classe. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7), 711-720.

[10] Viola, P., & Jones, M. (2001). Detecção rápida de objetos usando uma cascata aprimorada de recursos simples. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1, I-511.

[11] Dalal, N., & Triggs, B. (2005). Histogramas de gradientes orientados para detecção humana. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1, 886-893.

[12] Pesquisa e aplicação do algoritmo LDA no reconhecimento facial丨【Variety AI Show】-Cloud Community-HUAWEI CLOUD

[13] Pesquisa sobre o algoritmo de reconhecimento facial com base no LDA_51CTO Blog_Principle of Face Recognition Algorithm

[14] https://blog.csdn.net/weixin_42163563/article/details/127957504

Conclusão experimental ou experiência

Esta experiência alcançou bons resultados, projetou com sucesso um sistema de reconhecimento facial e alcançou alta precisão em conjuntos de dados AR, feret e vídeo. Ao aumentar a dimensão do recurso e considerar fatores como mudanças de iluminação e mudanças de ângulo, a precisão do sistema é aprimorada de 0,8 para 0,9. Além disso, o módulo de visualização do sistema de reconhecimento facial também foi projetado e resultados consideráveis ​​foram alcançados.

No entanto, ainda existem alguns aspectos do sistema que precisam ser melhorados. Primeiro, o desempenho de generalização do sistema precisa ser aprimorado. O sistema atual mostra alta precisão nos dados dentro do conjunto de dados, mas apenas 60% de precisão ao combinar dois conjuntos de dados diferentes. Para melhorar a generalização do sistema, mais pesquisas e otimização do algoritmo são necessárias para melhor se adaptar às características e mudanças de diferentes conjuntos de dados.

Em segundo lugar, é necessário melhorar as funcionalidades do sistema para que este suporte a entrada e reconhecimento de rostos. Atualmente, o sistema se concentra principalmente no processo de reconhecimento facial, mas em aplicações práticas, a entrada facial é uma etapa essencial. Portanto, é necessário projetar e implementar a função de registro facial, para que os usuários possam adicionar facilmente novos dados faciais ao sistema e realizar um reconhecimento preciso.

Finalmente, também precisamos melhorar o desempenho de generalização do detector facial. A detecção facial é a pré-etapa do sistema de reconhecimento facial, sua precisão e robustez são cruciais para o desempenho de todo o sistema. O sistema atual ainda tem espaço para melhorias na detecção de rosto em diferentes cenas, ângulos e condições de iluminação. Continuaremos a pesquisar e melhorar o detector facial para melhorar seu desempenho e precisão de generalização.

Em conclusão, este experimento fez um progresso positivo no projeto e otimização do sistema de reconhecimento facial, mas ainda enfrenta alguns desafios e espaço para melhorias. Ao fortalecer a generalização do sistema, melhorando as funções e melhorando o desempenho do detector facial, estamos confiantes em melhorar ainda mais a precisão e a estabilidade do sistema para atender às necessidades de aplicações práticas.

Acho que você gosta

Origin blog.csdn.net/weixin_51735061/article/details/132028075
Recomendado
Clasificación