ErgoLAB面部表情分析系统
ErgoLAB面部表情分析系统
一、产品概述
ErgoLAB FACS面部表情分析系统是主要的神经行为测试工具之一,该系统是一款专业的工具软件,可自动分析面部表情和面部微表情动作,同时系统内嵌情感效价识别模型,直接测量个体的“消极”、“中性”、“积极”的情感状态,还提供视线方向、头部朝向、个人特征等数据。系统通过面部动作编码体系(FACS:Facial Action Coding System)将许多现实生活中人类的表情进行了分类,是如今面部表情的肌肉运动的权威参照标准。系统具备情绪状态识别、面部表情分析等功能,根据人脸的解剖学特点,将其划分成若干既相互独立又相互联系的运动单元(AU),并分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。
ErgoLAB FACS系统是完全自主研发专利技术,具有多项国家发明专利与软件著作权,通过了省部级新技术新产品认证,欧洲CE、美国FCC、欧盟Rohs、ISO9001、ISO14001、OHSAS18001等多项国际管理体系认证。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个领域科学研究。
ErgoLAB FACS面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价;并通过庞大的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合AI状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ErgoLAB FACS系统采用先进表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。
系统可以嵌入ErgoLAB行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步采集与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端API/TTL实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。
随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究领域。情感预测态度和行动针对视频图像中的每一帧,FACS提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。
二、产品特点
1、面部表情自动编码
● 面部表情自定义处理参数模块,包括实时处理及离线处理,如数据插值、中值滤波、均值滤波等,支持自定义程度阈值、合并阈值、以及大脑加工时间。
● 自动识别并编码七种基本表情,包括高兴、悲伤、厌恶、恐惧、惊讶、生气、参与度,以0至100%区间计算表情程度值;
● 计算多种微表情数据,如抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧/内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴等。
2、状态识别与预警反馈
● 系统内嵌情感效价计算模型,精确识别积极、中性、消极情感,客观评价个体情绪状态,与多模态数据形成客观有效的印证关系;
● 系统可自动检测操作人员的头部位置三轴数据:俯仰角、偏航角、翻滚角;系统能够自动检测实时跟踪操作人员头部朝向,包括俯仰角、偏航角、翻滚角,并测定注视方向,计算瞳孔间距以及注意状态检测;
● 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。
3、面部表情分析与统计属性识别
● 实时可视化的表情编码:系统实时计算操作人员的表情状态与情绪效价,在实验过程中,主试可实时查看与监测操作人员的表情程度与情绪变化,并做出相应的任务调整与行为预警。
● 自动统计面部表情数据:包括每种面部表情的开始时间、结束时间、第一次发生的时间、总发生次数、频率、每次发生的时间、总的持续时间、总的持续时间在全部观察时间中所占的百分比、最短的持续时间、最长的持续时间、平均持续时间、持续时间的标准差、持续时间间隔置信区间等数据。
● 自动检测操作人员的整个面部特征点,并输出原始坐标X、Y,以及视线位置;
● 系统包含年龄分类器,支持实时计算并识别多个年龄段状态,可智能识别多种被试属性信息,如性别、是否佩戴眼镜。
4、多维度数据统计与二次开发
● 多维度数据交叉统计:系统支持面部表情数据与其他多模态数据(眼动、脑电、生理、动补、行为等)的同步交叉分析,多个数据源在同一平台界面呈现,在采集的同时间轴数据里选择相应的时间片段,可同步观察和统计分析所有数据流之间的相关关系;
● 具有API开发接口:面部表情原始数据与状态分析结果可以被其他程序实时访问,可使其它程序对被试者的情绪进行反馈。
三、应用领域
●心理学与神经科学研究;
●人因工程与工效学研究;
●人因智能与人机交互研究;
●智能交通与驾驶行为研究;
●建筑人居健康与环境行为研究;
●市场研究与消费者调研;
●用户体验与交互研究;
●教育研究;
●临床研究;
●婴儿研究;
●体育运动研究;
●沉浸式VR研究;
北京津发科技股份有限公司是国家级高新技术企业、科技部认定的科技型中小企业和中关村高新技术企业,具有自主研发与创新能力,具备自主进出口经营权;自主研发技术、产品与服务荣获多项省部级科学技术奖励、国家发明专利、国家软件著作权和省部级新技术新产品(服务)认证;通过了欧洲CE、美国FCC、欧盟RoHS、ISO9001、ISO14001、OHSAS18001等多项国际认证和防爆产品认证。
津发科技致力于实验室建设的专业化与特色化,提供实验室、实验实训及科研基地建设的全过程服务与建设方案。产品技术涵盖:认知神经科学技术、人机交互技术、可穿戴技术、人工智能技术、脑机接口技术、眼动追踪技术、虚拟现实技术、面部表情分析及状态识别技术、时空轨迹分析技术等;自主研发的人-机-环境同步云平台可实时同步采集多通道人机环境测试数据,结合大数据平台建立多模态大数据库,并采用人工智能技术相关算法实现有效的监测、识别、预测、分析和评价模型等。
多年来在军工国防武器装备领域,以及教育科研领域积极推动人因与工效学技术进步,携手众多科研工作者进行联合开发与科研实验、人才培养、学术合作与产学研融合,联合申报基金项目、科技项目等;承接和参与多项国家自然科学基金、国家重点研发计划、科技项目和标准编制;承接科研院所和高校实验室规划建设、并通过产学研方式与学术和科研机构建立合作关系,联合国家科研课题进行科技攻关,并联合开发适合中国国情的基于人工智能和虚拟现实技术的人-机-环境测试与工效学评价等多项科研成果,致力于将人因与工效学科学方法和成果应用到国防和社会科技发展进步。
津发科技重视客户服务质量、为客户创造价值,致力于推动人因工程与工效学行业发展和青年人才培养,2012年起在国内率先发起“科研支持计划”,无偿支持人因工程领域青年学者进行科学研究;2014年工业和信息化部CSIP 与津发科技联合共建“工信部CSIP-津发人因工程技术创新中心”,持续进行技术研发和基础及应用创新研究; 2016年起联合中国人类工效学学会发起“工效学卓越研究工程”并设立“CES-Kingfar基金(工效学会-津发优秀青年学者联合研究基金CES‐Kingfar Excellent Young Scholar Joint Research Funding)”,借鉴国家自然科学基金的评审标准,对特别优秀的青年学者研究计划书予以资助;2017年起联合教育部高等教育司设立“人因与工效学”产学合作协同育人项目,并由高教司发布申报指南和立项名单;2019年起与国际工效学联合会(IEA)设立国际奖项The IEA/Kingfar HFE Research Award“人因与工效学卓越研究奖”,旨在表彰世界各地为解决发展中国家典型人因工程问题而取得高质量人因工程与工效学研究成果的个人,以期改善发展中国家人民的福祉;2019年中国人类工效学学会联合北京津发科技股份有限公司正式启动中国首届HFE Award全国人因与工效学创新大赛。
津发科技将持续以推动人因工程发展为己任,在军工国防和教育科研各领域推动人因与工效学技术进步,为中国教育科研事业的发展提供服务。
全国免费服务电话:400-811-3680; 400-811-3950
单位名称: |
详细地址:
北京市海淀区安宁庄后街12号院1号楼一层、三层
|
qq:
4008113950
|
联系电话: |
Email: |