人脸识别在边缘计算终端中的应用 影响人脸识别准确率的因素有哪些?

[更新]
·
·
分类:互联网
4243 阅读

人脸识别在边缘计算终端中的应用

影响人脸识别准确率的因素有哪些?

影响人脸识别准确率的因素有哪些?

1.图像大小
人脸画像过小的话会影响认识效果,人脸画像过大的话会影响认识速度。 专业以外的脸部识别照相机中经常规定的最小识别脸部像素为60*60或100*100以上。在规定的图像尺寸内,算法容易提高精度和再现率。 图像的大小反映在实际的应用场景中的是脸和照相机的距离。
2.图像的分辨率
图像分辨率越低,人脸识别系统就越困难。 图像尺寸综合图像分辨率,直接影响相机识别距离。现在,4K摄像头看脸的最大距离是10米,7K摄像头是20米。
3.光照环境
过曝或太暗的阳光照射,都是危害面部识别实际效果的因素。能够从监控摄像头内置的作用补光或滤光均衡阳光照射危害,还可以运用计算方法实体模型提升图象光源。
4.遮挡程度
面部边沿清楚的图象为最好。而在实际上情景中,许多面部都是被遮阳帽、近视眼镜、防霾口罩等挡住物挡住,这些统计数据考虑通过算法模型优化此问题。
5.采集的角度
脸部相对于照相机的角度最适合脸部的正面。 但是,在实际场景中,多是难以拍照。 因此,算法模型需要训练包含左右面部、上下面部的数据。

hihope平台有什么用?

HiHope AI软件就是润和软件芯片全栈解决方案平台HiHope的重要组成部分。HiHope AI软件是主要面向能源、医疗、汽车、工业等行业打造AI软件产品,是用于人脸检测、图像的处理、边缘计算等应用场景,为企业提供人工智能软件的业务系统/环境

醒图怎么p手指粗细?

用放大缩小工具
打开醒图APP,导入要进行手指变细的图片进行编辑,在下方工具栏里,找到人像,点手动美体,点击放大缩小,在把要缩小的区域拖至要手指变细的地方,然后把参数往缩小方向调制,就可以实现把手指变细了。
手机美图秀秀怎么把手p瘦:打开美图秀秀应用后,点击图片美化的图标。选择需要将手P瘦的图片。点击下方的去美容的选项。点击瘦脸瘦身的图标。在手的边缘位置,向内侧滑动。

中国内存内计算芯片又有突破,老架构如何焕发新活力?

随着物联网时代的到来,海量的数据蜂拥而至。特别是各种应用终端和边缘侧需要处理的数据越来越多,而且对处理器的稳定性,以及功耗提出了越来越高的要求,这样,传统的计算体系和架构的短板就显得愈加突出,未来,具有更高效率和更低功耗的计算系统一定会大行其道。
在这样的背景下,存算一体(Computing In Memory,内存内计算)AI芯片应运而生。目前,不少国际上的领先企业和研究机构正在致力于各种新型存储器的研究,其中一个很大的驱动力就是希望能够实现具有更高效率的存算一体系统,而在这其中,AI的融入也是一大趋势。这些使得计算 存储 AI的融合发展成为了一大方向。
不仅是在国际上,最近几年,我国本土的一些企业和科研院所也在致力于这方面的研究工作。就在上周,合肥恒烁半导体科技公司与中国科大团队历时两年共同研发的基于NOR闪存架构的存算一体AI芯片系统演示顺利完成。这是国际领先的超低功耗存算一体的人工智能芯片。据悉,该芯片是一款具有边缘计算和推理能力的AI芯片,能实时检测通过摄像头拍摄的人脸头像并给出计算概率,可广泛应用于森林防火中的人脸识别与救援、心电图的实时监测、人工智能在人脸识别上的硬件解决方案等。
这也是我国本土企业在基于NOR闪存架构的存算一体AI芯片领域的又一次突破,实际上,在该领域,恒烁半导体并不是唯一一家,还有其它一些企业也在进行着基于NOR闪存架构的低功耗AI芯片的研究工作。那么,作为一种传统的、非前沿的存储技术,NOR闪存架构有怎样的特点和优势,能够使得这些企业对其投入资源和人力,进行相应的低功耗AI芯片和系统研发呢?
存算一体的优势
在谈基于NOR闪存架构AI芯片的特点和优势之前,先来看一下存算一体芯片的优势及其能够解决的主要问题。
目前来看,不论是PC还是超算,处理器和存储芯片都是分离的,这就是冯诺依曼50多年前确立的计算架构。随着技术的发展,存储计算分离的架构瓶颈越来越明显。
一般芯片的设计思路是增加大量的并行计算单元,比如上千个AI卷积单元,这样,需要调用的存储资源也在增大,然而,在传统的计算架构当中,存储一直是有限且稀缺的资源,随着运算单元的增加,每个单元能够使用的存储器的带宽和大小将逐渐减小,而随着人工智能时代的到来,这种矛盾显得愈加突出,特别是对于物联网来说,网络的每一层,现有权重和每个AI训练示例的元素都被加载到处理器的寄存器中,然后相乘,并将结果写回到存储器中。这样,性能瓶颈就不是在计算一侧了,而是处理器和存储器阵列之间的带宽。存储器和处理器之间的这种分离是冯·诺依曼架构的定义特征之一,并且存在于几乎所有现代计算系统中。
这种“存储墙”的高起正在阻碍着AI产业的发展,可以说,存储器是AI芯片发展的最大瓶颈。
在很多AI推理运算中,90%以上的运算资源都消耗在数据搬运的过程中。芯片内部到外部的带宽,以及片上缓存空间限制了运算的效率。因此,在业界和学术界,越来越多的人认为存算一体化是未来的趋势,可以很好地解决“存储墙”问题。
如果能够让计算和内存更紧密地结合在一起,甚至是在内存内进行计算,就可以大幅提升数据的传输效率,同时节省更多的电能,因为在内存和计算之间不再需要往返太多次数,一切处理过程都再同一芯片内完成了。
分类
为了应对物联网以及存算一体的应用需求,各种新型的、传统的存储技术和器件纷纷登场,想在这些新兴应用方面尽量地施展出自己的才华。
过去50年中,SRAM、DRAM和Flash已经成为存储器的主力,这些存储结构在往更小的几何结构微缩的过程中都存在问题,很重要的原因在于它们都是平面结构,而新的存储技术,如基于电阻开关的存储技术是金属层结构,消除了许多制造问题。然而,由于DRAM和Flash技术已经非常成熟,成本又很低。所以,它们在存算一体方面依然有独到的优势,也正在被一些企业所采用
目前来看,新型的存储技术主要包括相变存储器(PCM)、铁电存储器(FeRAM)、磁阻RAM(MRAM)、电阻RAM(RRAM或 ReRAM)、自旋转移力矩RAM(STT-RAM)、导电桥RAM(CBRAM),以及氧化物电阻存储器(OxRAM)等。基于这些的存算一体研究或多或少地都在进行着,相应的成果也经常见诸于报端。以上这些都是新技术,目前来看,它们的主要问题就是成本,以及生态系统的完整度,还需要一些发展时间才能成气候。
而从存储与计算的结合方式来看,存算一体又可以分为两大类:一是在DRAM中植入逻辑计算单元,被称为内存内处理或者近数据计算,这种方式非常适合云端的大数据和神经网络训练等应用;二是存储和计算完全结合在一起,存储器件也即计算单元,如采用基于NOR闪存架构的存算一体AI芯片,其主要特点是能耗低、运算效率高、速度快且成本低,这种形式比较适合边缘侧的神经网络推理等应用。
NOR闪存架构的优势
基于NOR闪存架构的存算一体AI芯片,利用NOR Flash的模拟特性,可直接在存储单元内进行全精度矩阵卷积运算(乘加运算)。规避了数据在ALU和存储器之间来回传输的瓶颈,从而使功耗大幅降低、提高了运算效率。
其Flash存储单元可以存储神经网络的权重参数,同时还可以完成和此权重相关的乘加法运算,从而将乘加法运算和存储融合到了一个Flash单元里面。例如,100万个Flash单元可以存储100万个权重参数,同时还可以并行完成100万次乘加法运算。
在这样的芯片里面,深度学习网络可以被映射到多个Flash阵列,这些Flash阵列不仅可以存储数据,其深度学习网络同时还能完成AI推理,注意,这个过程是不需要额外逻辑计算电路的,一切处理都在这一块芯片内完成。相比于传统的冯诺依曼架构深度学习芯片,这种的运算效率非常高,而且成本低廉,因为省去了DRAM、SRAM以及片上并行计算单元,从而简化了系统设计。
目前来看,这种基于NOR闪存架构的存算一体AI芯片,其主要应用领域就是对成本和运算效率(特别是功耗)敏感的应用,如边缘侧的低功耗、低成本语音识别等。而随着人工智能和物联网的发展,它还可以拓展更多的应用场景。
结语
无论是新型存储技术,还是以NOR闪存为代表的老牌技术,在发展存算一体AI芯片方面,都需要不断完善生态系统建设,才能使整个产业发展起来。
因此,除了存储和计算技术本身之外,行业相关的接口标准跟进特别重要,特别是对于以存储为基础的新型应用来说,更加重要。另外,由于芯片内部集中了越来越多的功能块,片内总线和片内网络系统成为了一个新的课题,目前,这方面的研究和新技术越来越受到业界的重视,新的技术和IP也陆续推出。