face_recognition 人脸识别
api | 说明 |
---|---|
1 load_image_file | 将img文件加载到numpy 数组中 |
2 face_locations | 查找图像中所有面部和所有面部特征的位置 |
3 batch_face_locations | 批次人脸定位函数(GPU) |
4 face_landmarks | 人脸特征提取函数 |
5 face_encodings | 图像编码转为特征向量 |
6 compare_faces | 特征向量比对 |
7 face_distance | 计算特征向量差值 |
图像载入函数——load_image_file
load_image_file(file, mode=’RGB’)
加载一个图像文件到一个numpy array类型的对象上。 参数: file:待加载的图像文件名字 mode:转换图像的格式。只支持“RGB”(8位RGB, 3通道)和“L”(黑白) 返回值: 一个包含图像数据的numpy array类型的对象
人脸编码函数——face_encodings
face_encodings(face_image, known_face_locations=None, num_jitters=1)
给定一个图像,返回图像中每个人脸的128脸部编码(特征向量)。 参数: face_image:输入的人脸图像 known_face_locations:可选参数,如果你知道每个人脸所在的边界框 num_jitters=1:在计算编码时要重新采样的次数。越高越准确,但速度越慢(100就会慢100倍) 返回值: 一个128维的脸部编码列表
人脸匹配函数——compare_faces
compare_faces(known_face_encodings, face_encoding_to_check, tolerance=0.6)
比较脸部编码列表和候选编码,看看它们是否匹配,设置一个阈值,若两张人脸特征向量的距离,在阈值范围之内,则认为其 是同一个人 参数: known_face_encodings:已知的人脸编码列表 face_encoding_to_check:待进行对比的单张人脸编码数据 tolerance=0.6:两张脸之间有多少距离才算匹配。该值越小对比越严格,0.6是典型的最佳值 返回值: 一个 True或者False值的列表,该表指示了known_face_encodings列表的每个成员的匹配结果
人脸定位函数——face_locations
face_locations(face_image,number_of_times_to_upsample=1,model="hog")
利用CNN深度学习模型或方向梯度直方图(Histogram of Oriented Gradient, HOG)进行人脸提取。返回值是一个数组(top, right, bottom, left)表示人脸所在边框的四条边的位置。 参数: face_image:输入的人脸图像 number_of_times_to_upsample=1:从图片的样本中查找多少次人脸,该参数的值越高的话越能发现更小的人脸 model="hog":使用哪种人脸检测模型。“hog” 准确率不高,但是在CPU上运行更快,“cnn” 更准确更深度(且GPU/CUDA加速,如果有GPU支持的话),默认是“hog” 返回值: 一个元组列表,列表中的每个元组包含人脸的四边位置(top, right, bottom, left)
批次人脸定位函数(GPU)——batch_face_locations
batch_face_locations(face_images,number_of_times_to_upsample=1,batch_size=128)
使用CNN人脸检测器返回一个包含人脸特征的二维数组,如果使用了GPU,这个函数能够更快速的返回结果;如果不使用GPU的话,该函数就没必要使用 参数: face_images:输入多张人脸图像组成的list number_of_times_to_upsample=1:从图片的样本中查找多少次人脸,该参数的值越高的话越能发现更小的人脸 batch_size=128:每个GPU一次批处理多少个image 返回值: 一个元组列表,列表中的每个元组包含人脸的四边位置(top, right, bottom, left)
人脸特征提取函数——face_landmarks
face_landmarks(face_image,face_locations=None,model="large")
给定一个图像,提取图像中每个人脸的脸部特征位置 参数: face_image:输入的人脸图片 face_locations=None:可选参数,默认值为None,代表默认解码图片中的每一个人脸。若输入face_locations()[i]可指定人脸进行解码 model="large":输出的特征模型,默认为“large”,可选“small”。当选择为"small"时,只提取左眼、右眼、鼻尖这三种脸部特征。 返回值: 返回值类型为:List[Dict[str,List[Tuple[Any,Any]]]],是由各个脸部特征关键点位置组成的字典记录列表,一个Dict对象对应图片中的一个人脸,其key为某个脸部特征(如输出中的nose_bridge、left_eye等),value是由该脸部特征各个关键点位置组成的List,关键点位置是一个Tuple(如上输出中,nose_bridge对应的关键点位置组成的列表为[(881L, 128L), (880L, 141L), (880L, 154L), (879L, 167L)] )
计算特征相识度差值——face_distance
例子1-人脸识别和特征匹配
import face_recognition# 加载2张已知面孔的图片
known_obama_image = face_recognition.load_image_file("obama.jpg")
known_biden_image = face_recognition.load_image_file("biden.jpg")# 计算图片对应的编码
obama_face_encoding = face_recognition.face_encodings(known_obama_image)[0]
biden_face_encoding = face_recognition.face_encodings(known_biden_image)[0]known_encodings = [
obama_face_encoding,
biden_face_encoding
]# 加载一张未知面孔的图片
image_to_test = face_recognition.load_image_file("obama2.jpg")
# 计算图片对应的编码
image_to_test_encoding = face_recognition.face_encodings(image_to_test)[0]# 计算未知图片与已知的2个面孔的距离
face_distances = face_recognition.face_distance(known_encodings, image_to_test_encoding)for i, face_distance in enumerate(face_distances):
print("The test image has a distance of {:.2} from known image #{}".format(face_distance, i))
print("- With a normal cutoff of 0.6, would the test image match the known image? {}".format(face_distance < 0.6))
print("- With a very strict cutoff of 0.5, would the test image match the known image? {}".format(face_distance < 0.5))
print()
结果
The test image has a distance of 0.35 from known image #0 (与#0面孔差异为0.35,在相似度阈值分别为 0.6和0.5的情形下,都可以认为与#0是同一人)
- With a normal cutoff of 0.6, would the test image match the known image? True
- With a very strict cutoff of 0.5, would the test image match the known image? True
The test image has a distance of 0.82 from known image #1(与#1面孔差异为0.82,在相似度阈值分别为 0.6和0.5的情形下,都不认为与#1是同一人)
- With a normal cutoff of 0.6, would the test image match the known image? False
- With a very strict cutoff of 0.5, would the test image match the known image? False
例子2-特征点检测和美颜
import face_recognition
from PIL import Image, ImageDraw# Load the jpg file into a numpy array
image = face_recognition.load_image_file("tt3.jpg")# Find all facial features in all the faces in the image
face_landmarks_list = face_recognition.face_landmarks(image)for face_landmarks in face_landmarks_list:
# Create a PIL imageDraw object so we can draw on the picture
pil_image = Image.fromarray(image)
d = ImageDraw.Draw(pil_image, 'RGBA') # 画个浓眉
d.polygon(face_landmarks['left_eyebrow'], fill=(68, 54, 39, 128))
d.polygon(face_landmarks['right_eyebrow'], fill=(68, 54, 39, 128))
d.line(face_landmarks['left_eyebrow'], fill=(68, 54, 39, 150), width=5)
d.line(face_landmarks['right_eyebrow'], fill=(68, 54, 39, 150), width=5) # 涂个性感的嘴唇
d.polygon(face_landmarks['top_lip'], fill=(150, 0, 0, 128))
d.polygon(face_landmarks['bottom_lip'], fill=(150, 0, 0, 128))
d.line(face_landmarks['top_lip'], fill=(150, 0, 0, 64), width=8)
d.line(face_landmarks['bottom_lip'], fill=(150, 0, 0, 64), width=8) # 闪亮的大眼睛
d.polygon(face_landmarks['left_eye'], fill=(255, 255, 255, 30))
d.polygon(face_landmarks['right_eye'], fill=(255, 255, 255, 30)) # 画眼线
d.line(face_landmarks['left_eye'] + [face_landmarks['left_eye'][0]], fill=(0, 0, 0, 110), width=6)
d.line(face_landmarks['right_eye'] + [face_landmarks['right_eye'][0]], fill=(0, 0, 0, 110), width=6) pil_image.show()