当前位置:首页 > 厂商动态 > 米尔电子
[导读]Facenet-PyTorch 是一个基于 PyTorch 框架实现的人脸识别库。它提供了 FaceNet 模型的 PyTorch 实现,可以用于训练自己的人脸识别模型。FaceNet 是由 Google 研究人员提出的一种深度学习模型,专门用于人脸识别任务。

本文将介绍基于米尔电子MYD-LT527开发板(米尔基于全志 T527开发板)的FacenetPytorch人脸识别方案测试。

一、深度神经网络

1.简介

Facenet-PyTorch 是一个基于 PyTorch 框架实现的人脸识别库。它提供了 FaceNet 模型的 PyTorch 实现,可以用于训练自己的人脸识别模型。FaceNet 是由 Google 研究人员提出的一种深度学习模型,专门用于人脸识别任务。

在利用PyTorch神经网络算法进行人脸图像对比的实验设置中,我们专注于对比环节,而不涉及实际项目的完整实现细节。但为了贴近实际应用,我们可以构想以下流程:

1)捕捉新人脸图像:首先,我们使用摄像头或其他图像采集设备捕捉一张新的人脸照片。

2)加载存储的人脸图像:接着,从数据库中加载所有已存储的人脸图像。这些图像是之前采集并存储的,用于与新捕捉到的人脸照片进行对比。

3)构建神经网络模型:为了实现对比功能,我们需要一个预先训练好或自定义的神经网络模型。这个模型能够提取人脸图像中的关键特征,使得相似的图像在特征空间中具有相近的表示。

4)特征提取:利用神经网络模型,对新捕捉到的人脸照片和存储的每一张人脸图像进行特征提取。这些特征向量将用于后续的对比计算。

5)计算相似度:采用合适的相似度度量方法(如余弦相似度、欧氏距离等),计算新照片特征向量与存储图像特征向量之间的相似度。

6)确定匹配图像:根据相似度计算结果,找到与新照片相似度最高的存储图像,即认为这两张图像匹配成功。

7)输出匹配结果:最后,输出匹配成功的图像信息或相关标识,以完成人脸对比的实验任务。

2.核心组件

MTCNN:Multi-task Cascaded Convolutional Networks,即多任务级联卷积网络,专门设计用于同时进行人脸检测和对齐。它在处理速度和准确性上都有出色的表现,是当前人脸检测领域的主流算法之一。

FaceNet:由Google研究人员提出的一种深度学习模型,专门用于人脸识别任务。FaceNet通过将人脸图像映射到一个高维空间,使得同一个人的不同图像在这个空间中的距离尽可能小,而不同人的图像距离尽可能大。这种嵌入表示可以直接用于人脸验证、识别和聚类。

米尔基于全志T527开发板

3.功能

支持人脸检测:使用MTCNN算法进行人脸检测,能够准确识别出图像中的人脸位置。

支持人脸识别:使用FaceNet算法进行人脸识别,能够提取人脸特征并进行相似度计算,实现人脸验证和识别功能。

二、安装facenet_pytorch库

1.更新系统

更新ubuntu系统,详情查看米尔提供的资料文件

2.更新系统软件

apt-get update

3.安装git等支持软件

sudo apt-get install -y python3-dev python3-pip libopenblas-dev libssl-dev libffi-dev git cmake

4.安装Pytorch支持工具

# 克隆 PyTorch 源代码

git clone --recursive https://github.com/pytorch/pytorch

# 进入 PyTorch 目录

cd pytorch

# 安装 PyTorch (需要根据你的需求选择 CUDA 版本,如果不需要 GPU 支持则不需要 --cuda 参数)

pip3 install --no-cache-dir torch -f https://download.pytorch.org/whl/torch_stable.html

# 测试 PyTorch 安装

python3 -c "import torch; print(torch.__version__)"

5.安装facenet_pytorch

pip3 install facenet_pytorch

三、CSDN参考案例

1.代码实现

############face_demo.py#############################

import cv2

import torch

from facenet_pytorch import MTCNN, InceptionResnetV1


# 获得人脸特征向量

def load_known_faces(dstImgPath, mtcnn, resnet):

  aligned = []

  knownImg = cv2.imread(dstImgPath) # 读取图片

  face = mtcnn(knownImg) # 使用mtcnn检测人脸,返回人脸数组


  if face is not None:

    aligned.append(face[0])

  aligned = torch.stack(aligned).to(device)

  with torch.no_grad():

    known_faces_emb = resnet(aligned).detach().cpu()

    # 使用ResNet模型获取人脸对应的特征向量

  print("\n人脸对应的特征向量为:\n", known_faces_emb)

  return known_faces_emb, knownImg

# 计算人脸特征向量间的欧氏距离,设置阈值,判断是否为同一张人脸


def match_faces(faces_emb, known_faces_emb, threshold):

  isExistDst = False

  distance = (known_faces_emb[0] - faces_emb[0]).norm().item()

  print("\n两张人脸的欧式距离为:%.2f" % distance)

  if (distance < threshold):

    isExistDst = True

  return isExistDst


if __name__ == '__main__':

  # help(MTCNN)

  # help(InceptionResnetV1)

  # 获取设备

  device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')

  # mtcnn模型加载设置网络参数,进行人脸检测

  mtcnn = MTCNN(min_face_size=12, thresholds=[0.2, 0.2, 0.3],

                          keep_all=True, device=device)

  # InceptionResnetV1模型加载用于获取人脸特征向量

  resnet = InceptionResnetV1(pretrained='vggface2').eval().to(device)


  MatchThreshold = 0.8 # 人脸特征向量匹配阈值设置


  known_faces_emb, _ = load_known_faces('yz.jpg', mtcnn, resnet) # 已知人物图

  faces_emb, img = load_known_faces('yz1.jpg', mtcnn, resnet) # 待检测人物图

  isExistDst = match_faces(faces_emb, known_faces_emb, MatchThreshold) # 人脸匹配

  print("设置的人脸特征向量匹配阈值为:", MatchThreshold)

  if isExistDst:

     boxes, prob, landmarks = mtcnn.detect(img, landmarks=True)

     print('由于欧氏距离小于匹配阈值,故匹配')

else:

    print('由于欧氏距离大于匹配阈值,故不匹配')

此代码是使用训练后的模型程序进行使用,在程序中需要标明人脸识别对比的图像。

2.实践过程

第一次运行时系统需要下载预训练的vggface模型,下载过程较长,后面就不需要在下载了运行会很快。如图所示:

3.程序运行异常呗终止

运行程序,提示killed,系统杀死了本程序的运行,经过多方面的测试,最终发现是识别的图片过大,使得程序对内存消耗过大导致。后将图片缩小可以正常运行了。

以下是对比图像和对比结果。

gitHub开源代码

首先下载代码文件

代码库中,大致的介绍了facenet算法的训练步骤等。

代码实现

以下是facenet的python代码,注意需要更改下面的一条程序"cuda" False,因为t527使用的是cpu,芯片到时自带gpu但是cuda用不了,因为cuda是英伟达退出的一种计算机架构。

import matplotlib.pyplot as plt

import numpy as np

import torch

import torch.backends.cudnn as cudnn

from nets.facenet import Facenet as facenet

from utils.utils import preprocess_input, resize_image, show_config

#--------------------------------------------#

# 使用自己训练好的模型预测需要修改2个参数

# model_path和backbone需要修改!

#--------------------------------------------#

class Facenet(object):

_defaults = {

#--------------------------------------------------------------------------#

# 使用自己训练好的模型进行预测要修改model_path,指向logs文件夹下的权值文件

# 训练好后logs文件夹下存在多个权值文件,选择验证集损失较低的即可。

# 验证集损失较低不代表准确度较高,仅代表该权值在验证集上泛化性能较好。

#--------------------------------------------------------------------------#

"model_path" : "model_data/facenet_mobilenet.pth",

#--------------------------------------------------------------------------#

# 输入图片的大小。

#--------------------------------------------------------------------------#

"input_shape" : [160, 160, 3],

#--------------------------------------------------------------------------#

# 所使用到的主干特征提取网络

#--------------------------------------------------------------------------#

"backbone" : "mobilenet",

#-------------------------------------------#

# 是否进行不失真的resize

#-------------------------------------------#

"letterbox_image" : True,

#-------------------------------------------#

# 是否使用Cuda

# 没有GPU可以设置成False

#-------------------------------------------#

"cuda" : False,

}

@classmethod

def get_defaults(cls, n):

if n in cls._defaults:

return cls._defaults[n]

else:

return "Unrecognized attribute name '" + n + "'"

#---------------------------------------------------#

# 初始化Facenet

#---------------------------------------------------#

def __init__(self, **kwargs):

self.__dict__.update(self._defaults)

for name, value in kwargs.items():

setattr(self, name, value)

self.generate()

show_config(**self._defaults)

def generate(self):

#---------------------------------------------------#

# 载入模型与权值

#---------------------------------------------------#

print('Loading weights into state dict...')

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

self.net = facenet(backbone=self.backbone, mode="predict").eval()

self.net.load_state_dict(torch.load(self.model_path, map_location=device), strict=False)

print('{} model loaded.'.format(self.model_path))

if self.cuda:

self.net = torch.nn.DataParallel(self.net)

cudnn.benchmark = True

self.net = self.net.cuda()

#---------------------------------------------------#

# 检测图片

#---------------------------------------------------#

def detect_image(self, image_1, image_2):

#---------------------------------------------------#

# 图片预处理,归一化

#---------------------------------------------------#

with torch.no_grad():

image_1 = resize_image(image_1, [self.input_shape[1], self.input_shape[0]], letterbox_image=self.letterbox_image)

image_2 = resize_image(image_2, [self.input_shape[1], self.input_shape[0]], letterbox_image=self.letterbox_image)

photo_1 = torch.from_numpy(np.expand_dims(np.transpose(preprocess_input(np.array(image_1, np.float32)), (2, 0, 1)), 0))

photo_2 = torch.from_numpy(np.expand_dims(np.transpose(preprocess_input(np.array(image_2, np.float32)), (2, 0, 1)), 0))

if self.cuda:

photo_1 = photo_1.cuda()

photo_2 = photo_2.cuda()

#---------------------------------------------------#

# 图片传入网络进行预测

#---------------------------------------------------#

output1 = self.net(photo_1).cpu().numpy()

output2 = self.net(photo_2).cpu().numpy()

#---------------------------------------------------#

# 计算二者之间的距离

#---------------------------------------------------#

l1 = np.linalg.norm(output1 - output2, axis=1)

plt.subplot(1, 2, 1)

plt.imshow(np.array(image_1))

plt.subplot(1, 2, 2)

plt.imshow(np.array(image_2))

plt.text(-12, -12, 'Distance:%.3f' % l1, ha='center', va= 'bottom',fontsize=11)

plt.show()

return l1

代码实现

此代码调用的签名的代码,但其可以直接的去调用图片进行人脸识别

from PIL import Image

from facenet import Facenet

if __name__ == "__main__":

model = Facenet()

while True:

image_1 = input('Input image_1 filename:')

try:

image_1 = Image.open(image_1)

except:

print('Image_1 Open Error! Try again!')

continue

image_2 = input('Input image_2 filename:')

try:

image_2 = Image.open(image_2)

except:

print('Image_2 Open Error! Try again!')

continue

probability = model.detect_image(image_1,image_2)

print(probability)

程序运行

运行程序后首先显示的是程序的配置信息,然后可以输入图像对比检测的内容。以下是图像识别的效果和对比的准确率。


本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭