模块 face_recognition 人脸识别

face_recognition 人脸识别

api 说明
1 load_image_file 将img文件加载到numpy 数组中
2 face_locations 查找图像中所有面部和所有面部特征的位置
3 batch_face_locations 批次人脸定位函数(GPU)
4 face_landmarks 人脸特征提取函数
5 face_encodings 图像编码转为特征向量
6 compare_faces 特征向量比对
7 face_distance 计算特征向量差值

图像载入函数——load_image_file

​ load_image_file(file, mode='RGB')

   加载一个图像文件到一个numpy array类型的对象上。

   参数:

   file:待加载的图像文件名字

   mode:转换图像的格式。只支持“RGB”(8位RGB, 3通道)和“L”(黑白)

   返回值:

   一个包含图像数据的numpy array类型的对象

人脸编码函数——face_encodings

​ face_encodings(face_image, known_face_locations=None, num_jitters=1)

   给定一个图像,返回图像中每个人脸的128脸部编码(特征向量)。

   参数:

   face_image:输入的人脸图像

   known_face_locations:可选参数,如果你知道每个人脸所在的边界框

   num_jitters=1:在计算编码时要重新采样的次数。越高越准确,但速度越慢(100就会慢100倍)

   返回值:

   一个128维的脸部编码列表

人脸匹配函数——compare_faces

​ compare_faces(known_face_encodings, face_encoding_to_check, tolerance=0.6)

   比较脸部编码列表和候选编码,看看它们是否匹配,设置一个阈值,若两张人脸特征向量的距离,在阈值范围之内,则认为其 是同一个人

   参数:

   known_face_encodings:已知的人脸编码列表

   face_encoding_to_check:待进行对比的单张人脸编码数据

   tolerance=0.6:两张脸之间有多少距离才算匹配。该值越小对比越严格,0.6是典型的最佳值

   返回值:

   一个 True或者False值的列表,该表指示了known_face_encodings列表的每个成员的匹配结果

人脸定位函数——face_locations

​ face_locations(face_image,number_of_times_to_upsample=1,model="hog")

   利用CNN深度学习模型或方向梯度直方图(Histogram of Oriented Gradient, HOG)进行人脸提取。返回值是一个数组(top, right, bottom, left)表示人脸所在边框的四条边的位置。

   参数:

   face_image:输入的人脸图像

   number_of_times_to_upsample=1:从图片的样本中查找多少次人脸,该参数的值越高的话越能发现更小的人脸

   model="hog":使用哪种人脸检测模型。“hog” 准确率不高,但是在CPU上运行更快,“cnn” 更准确更深度(且GPU/CUDA加速,如果有GPU支持的话),默认是“hog”

   返回值:

   一个元组列表,列表中的每个元组包含人脸的四边位置(top, right, bottom, left)

批次人脸定位函数(GPU)——batch_face_locations

​ batch_face_locations(face_images,number_of_times_to_upsample=1,batch_size=128)

   使用CNN人脸检测器返回一个包含人脸特征的二维数组,如果使用了GPU,这个函数能够更快速的返回结果;如果不使用GPU的话,该函数就没必要使用

   参数:

   face_images:输入多张人脸图像组成的list

   number_of_times_to_upsample=1:从图片的样本中查找多少次人脸,该参数的值越高的话越能发现更小的人脸

   batch_size=128:每个GPU一次批处理多少个image

   返回值:

   一个元组列表,列表中的每个元组包含人脸的四边位置(top, right, bottom, left)

人脸特征提取函数——face_landmarks

​ face_landmarks(face_image,face_locations=None,model="large")

   给定一个图像,提取图像中每个人脸的脸部特征位置

   参数:

   face_image:输入的人脸图片

   face_locations=None:可选参数,默认值为None,代表默认解码图片中的每一个人脸。若输入face_locations()[i]可指定人脸进行解码

   model="large":输出的特征模型,默认为“large”,可选“small”。当选择为"small"时,只提取左眼、右眼、鼻尖这三种脸部特征。

   返回值:

   返回值类型为:List[Dict[str,List[Tuple[Any,Any]]]],是由各个脸部特征关键点位置组成的字典记录列表,一个Dict对象对应图片中的一个人脸,其key为某个脸部特征(如输出中的nose_bridge、left_eye等),value是由该脸部特征各个关键点位置组成的List,关键点位置是一个Tuple(如上输出中,nose_bridge对应的关键点位置组成的列表为[(881L, 128L), (880L, 141L), (880L, 154L), (879L, 167L)]  )

计算特征相识度差值——face_distance

例子1-人脸识别和特征匹配

import face_recognition

# 加载2张已知面孔的图片
known_obama_image = face_recognition.load_image_file("obama.jpg")
known_biden_image = face_recognition.load_image_file("biden.jpg")

# 计算图片对应的编码
obama_face_encoding = face_recognition.face_encodings(known_obama_image)[0]
biden_face_encoding = face_recognition.face_encodings(known_biden_image)[0]

known_encodings = [
    obama_face_encoding,
    biden_face_encoding
]

# 加载一张未知面孔的图片
image_to_test = face_recognition.load_image_file("obama2.jpg")
# 计算图片对应的编码
image_to_test_encoding = face_recognition.face_encodings(image_to_test)[0]

# 计算未知图片与已知的2个面孔的距离
face_distances = face_recognition.face_distance(known_encodings, image_to_test_encoding)

for i, face_distance in enumerate(face_distances):
    print("The test image has a distance of {:.2} from known image #{}".format(face_distance, i))
    print("- With a normal cutoff of 0.6, would the test image match the known image? {}".format(face_distance < 0.6))
    print("- With a very strict cutoff of 0.5, would the test image match the known image? {}".format(face_distance < 0.5))
    print()

结果

 The test image has a distance of 0.35 from known image #0 (与#0面孔差异为0.35,在相似度阈值分别为 0.6和0.5的情形下,都可以认为与#0是同一人)
- With a normal cutoff of 0.6, would the test image match the known image? True
- With a very strict cutoff of 0.5, would the test image match the known image? True
The test image has a distance of 0.82 from known image #1(与#1面孔差异为0.82,在相似度阈值分别为 0.6和0.5的情形下,都不认为与#1是同一人)
- With a normal cutoff of 0.6, would the test image match the known image? False
- With a very strict cutoff of 0.5, would the test image match the known image? False

例子2-特征点检测和美颜

import face_recognition
from PIL import Image, ImageDraw

# Load the jpg file into a numpy array
image = face_recognition.load_image_file("tt3.jpg")

# Find all facial features in all the faces in the image
face_landmarks_list = face_recognition.face_landmarks(image)

for face_landmarks in face_landmarks_list:
    # Create a PIL imageDraw object so we can draw on the picture
    pil_image = Image.fromarray(image)
    d = ImageDraw.Draw(pil_image, 'RGBA')

    # 画个浓眉
    d.polygon(face_landmarks['left_eyebrow'], fill=(68, 54, 39, 128))
    d.polygon(face_landmarks['right_eyebrow'], fill=(68, 54, 39, 128))
    d.line(face_landmarks['left_eyebrow'], fill=(68, 54, 39, 150), width=5)
    d.line(face_landmarks['right_eyebrow'], fill=(68, 54, 39, 150), width=5)

    # 涂个性感的嘴唇
    d.polygon(face_landmarks['top_lip'], fill=(150, 0, 0, 128))
    d.polygon(face_landmarks['bottom_lip'], fill=(150, 0, 0, 128))
    d.line(face_landmarks['top_lip'], fill=(150, 0, 0, 64), width=8)
    d.line(face_landmarks['bottom_lip'], fill=(150, 0, 0, 64), width=8)

    # 闪亮的大眼睛
    d.polygon(face_landmarks['left_eye'], fill=(255, 255, 255, 30))
    d.polygon(face_landmarks['right_eye'], fill=(255, 255, 255, 30))

    # 画眼线
    d.line(face_landmarks['left_eye'] + [face_landmarks['left_eye'][0]], fill=(0, 0, 0, 110), width=6)
    d.line(face_landmarks['right_eye'] + [face_landmarks['right_eye'][0]], fill=(0, 0, 0, 110), width=6)

    pil_image.show()

猜你喜欢

转载自www.cnblogs.com/ham-731/p/12121243.html