人工智能分析(人工智能的应用场景)

在初为父母的前几年时间里 , 你们会有一件其乐无穷的事情就是观察孩子们的情感状态 。小孩子的情感的丰富度是随着大脑的日渐发育 , 还有生活经验 , 尤其是父母的情感和情绪表现而逐渐发展的 。


细心观察就会发现 , 孩子们会由最开始的本能的哭泣、开心 , 慢慢流露出生气、着急、疑惑和好奇 , 个性开始展现 。再然后她便开始学着模仿大人的表情 , 表现出委屈、愤怒、不情不愿、悲伤、害怕 , 也表现出兴奋、淘气、使坏得逞后的得意、装模作样被发现后的狡黠……


在个性、言语和情绪掌握上 , 父母很大程度就像是孩子的镜像 , 孩子就是父母的印刻 。几乎每个家庭都在用自己的方式培养这样一个“纯人工智能” 。


世界级神经科学家安东尼奥·达马西奥在其著作《笛卡尔的错误》中指出 , 情绪和情感也是人类理性的基础 , 情绪部分的缺失使得理性决策难以实现 。简单来说 , 人类的理性不仅仅由智商(IQ)决定 , 也受情商(EQ)决定 。


这一研究解释了人类的智能不是简单的逻辑计算和推理 , 还有情绪感受推动着的决策和行动 。那么 , 对于人工智能而言 , 仅仅具有分析和识别能力是远远不够的 , 能否具有情绪情感的识别和表达能力才是向人类智能的大步飞跃 。
正如马文·明斯基所言:“如果机器不能够很好地模拟情感 , 那么人们可能永远也不会觉得机器具有智能 。”


如何让机器具有识别、理解和表达人的情感的能力 , 其实也早已进入人工智能研究的视野之内 。在1997年 , MIT媒体实验室的AI专家罗莎琳德·皮卡德教授已经正式提出“情感计算(Affective Computing)”的概念 , 也同时开创了计算机科学、神经科学和人工智能学科结合的这一分支学科——情感计算 , 从而推动了情感识别分析与AI技术相结合的情感智能的持续发展 。




人工智能分析(人工智能的应用场景)

文章插图


我们知道最近十年里AI技术的爆发 , 主要是在计算机视觉、自然语言处理、语音识别等机器学习和深度学习算法领域发生的 。图像识别、语音识别等AI应用在产业的成熟落地 , 其风头正劲的光芒遮盖了仍处在探索当中情感智能的发展 。同时 , 这也说明情感智能是下一阶段更高阶的AI技术 , 其成熟度和应用场景还需要更多时间来培养 。


根据德勤最新一份研究报告 , 作为2020年后新技术趋势的情感智能 , 将成为很多人重新体验AI技术的新方式之一 。


也就是说 , 情感、情绪 , 这一原本专属于人类个体的独特而又复杂的内在属性 , 正在成为被技术模拟和商业重构的生产力形式 , 现在以人机交互的方式来到我们身边 。
那么 , 情感到底是如何被机器计算?情感智能的商业化是否靠谱?我们希望带着这些令人好奇问题深入到情感智能的最前沿 。


情感情绪识别 , 实现情感智能第一步
在搞清楚情感计算和情感智能之前 , 搞清楚情感概念本身就是一个非常复杂的问题 。据统计 , 关于情感的研究和定义 , 相关的理论就有150种之多 。
我们可能很轻松地认出他人神态、语气、姿势当中包含的当下情绪和持续的情感状态 , 但是让我们说清楚到底什么是情感 , 不同状态、不同程度的情感的细微差别 , 可能就非常难了 。
【人工智能分析(人工智能的应用场景)】

那么 , 在识别情感情绪这件事情上 , 机器可以做的比人类更好吗?
我们可以肯定的是情感是可以计算的 。从性质上 , 情感其实可以区分为生理上的和心理上的两个部分 。前者体现为表情、音调、身体姿态以及依靠传感器才能觉察的肌肉、心电反应;后者体现为个体的内在的心理状态 , 前者是后者的生理性表现 , 后者又是前者的心理基础 。


显然 , 机器更擅长从前者的角度来识别和认知情感情绪 。在情感计算的研究中 , 情感情绪识别是最基础 , 也是最重要的研究领域 。


情感情绪识别主要就是通过对人的面部表情、语音语调、文本内容以及身体生理信号等各种模态数据的学习 , 从而识别出人类的各种情绪和情感状态 。在此基础上 , 现在情感计算领域已经具有很好的人脸表情识别、语音情感识别、文本情感识别、多模态情感情绪识别等 。


以人脸表情识别为例 。表情识别技术就可以利用人脸的面部信息 , 比如眼角细纹、眉头、嘴角位置的变化 , 来进行表情的判断 。由于深度学习的应用 , 表情识别的算法也取得了很大的提升 。现在研究者更是将注意力集中在人类难以察觉的微表情识别当中 。这些在美剧当中出现的技术将实际应用到司法、金融以及教育领域 。


数据堂自制版权的系列数据集产品为“”人脸识别”这一技术路径的实现提供了强有力的支持 。
2000人面部遮挡多姿态人脸识别数据集
该数据每位被采集者 , 分别采集在10种遮挡条件下(包括不遮挡条件)*4种光线下*5种人脸姿态 , 共计10*4*5=200(张)人脸数据 , 该套数据可应用于遮挡人脸检测及识别等计算机视觉任务 。


人脸表情识别技术不仅能知道人们是否是发自内心的微笑还是社交微笑 , 还能够抓取到连本人都意识不到的、转瞬即逝的表情 , 尽管这些表情是本人刻意隐藏的或者无意识流露出来的 。


除人脸表情识别外 , 语音情感识别是一种同样重要的情感识别方式 。语音情感的识别算法是通过对声音信号的特征提取、处理 , 实现分类器所需的训练模型 , 利用分类器来对要识别的情感类型进行预测 。


在人机的语音情感交互中 , 除了机器准确地获取和识别人类的语音情感信息 , 再就是机器如何使用带有情感的语音信息进行反馈 。目前来看 , 我们在智能音箱、智能导航上听到的那些四平八稳的机器合成仿人类语音 , 距离有着韵律和节奏感的真人音色和情感表达上还是有一定差距的 。但是在迁移学习、强化学习等方法的帮助下 , 模仿真人带有真实情感的语音语调的合成语音 , 其以假乱真的程度已经超出了我们的想象 。很多在线客服 , 仅从声音上已经很难判断是人工还是人工智能了 。


基于文本的情感识别 , 尽管没有了图像、语音等维度的个性化数据信息 , 但通过自然语言处理 , 机器增加了对话、语句、语词属性等多个层次的语义分析 。从对话中可以获得对方的情感倾向 , 从语句中获得其情绪的转变 , 从语词属性中提取观点 。这样在机器进行文本应答的过程中 , 就可以给出更个性化的回复 , 而不是像现在电商客服里清一水的感谢或者道歉的标准文案 。


数据堂拥有大规模面部识别数据并已经标注好情绪标签 , 可以满足消费场景下对消费者情绪识别与意图预测的需求 。


多模态情感情绪识别 , 相比较于单模态的数据识别 , 可以综合不同模态的情感信息来提高情绪情感识别的准确度 。首先是智能终端设备 , 包括像智能手表、VR眼镜等可穿戴设备的成熟 , 使得多模态数据收集成为可能 。其次 , 研究者已经可以采用深度信念网络对生理信号、表情与姿势信息以及语音信号等多模态信息进行特征融合 , 再通过支持向量机来进行特征分类 , 从而给出情绪情感识别的结果 。


情感情绪识别只是迈出了情感计算最基础的一步 , 当AI开始尝试给出带有情感表达和情感决策的反馈 , 人机的情感互动才可以建立起完整的闭环 。当然 , 由于商业活动当中 , 有大量的场景需要应用到对于人类的情感情绪识别技术 。


伴随着这些情感计算的情感情绪识别技术开始的出现 , 其商业化进程就已经开始 , 特别是近几年伴随着AI应用的大规模普及 , 情感智能正成为了AI领域的新热点 。