AI炒菜、配料、开发新口味……人类终于可以只负责吃了?( 二 )


2019年7月 , 北京大学开始试行识菜结算机器人 。 这款菜色识别机器人认识食堂内200多款菜色 , 运用AI图片识别技术 , 可以根据食物纹理在2秒内识别菜品 , 大幅提高了餐厅结账速度 。
“感觉食堂变得更高大上了 , 机器的收银速度和食堂阿姨差不多 。 ”一名同学说 , “不过 , 如果人工收银和机器人收银都空着 , 我还是会选择食堂阿姨 , 因为食堂阿姨站得更前面 , 并且当你还没靠近 , 她已经积极地帮你算好了价钱 。 ”
一些同学表示 , 这款机器人并不能很准确的区分馒头和包子、土豆烧鸡和红烧肉以及大碗米饭和小碗米饭的区别 。 购买这些菜品的时候 , 经常需要再核实一下价格 。
食堂阿姨普遍认为 , 机器人虽能在人多的时候减轻她们的负担 , 但是她们对许多菜的价格烂熟于心 , 计算起来非常快 , 识菜机器人似乎可有可无 。 不仅是大学食堂 , 已有越来越多餐厅开始使用AI识别菜品自动结账的功能 。 如Microsoft的员工餐厅 , 一名员工表示 , 自使用了自动识菜结帐系统 , “结账时间从五分钟变成五秒 。 ”既能大幅缩减结账时间 , 又能减少人力成本 。 识菜机器人正逐渐成为餐饮业的新宠 。
相对于学校食堂中数量有限的菜品识别 , 运用AI来识别食谱就困难许多 。
人工智能想要成功分析食谱 , 必须先弄清楚图片中是什么食物;再推断出食材和配料的加工过程 。 但现有的AI在第一关就被卡住了 。
2017年 , 麻省理工学院计算科学与人工智能实验室(CSAIL)的研究人员依此思路 , 创建了一款名为Pic2 Recipe的应用 。 Pic2 Recipe利用神经网络技术 , 能从食物图片分析食材的成分 , 反向推导出制作过程中使用过的材料 , 并向用户推荐类似的食谱 。 研究团队借助内含上百万份食谱的Recipe 1 M数据库来训练Pic2 Recipe的神经网络系统 , 让它能在各个食物图像和其对应的成分和食谱之间建立联系 。 但照片质量对识别结果的影响较大 , 拍摄角度、远近、摆放和灯光等不同场景下的同一食物 , 可能得出不同识别结果 。
这样的体验并不符合日常使用需求 , Pic2 Recipe的联合创作人表示:“最重要的问题就是如何获得正确的图像比例 。 人们在拍摄食物照片时 , 总是有很多不确定因素 , 比如拍摄距离的远近(影响食物的大小) , 拍了一盘菜还是多盘菜(也可能某盘菜的一部分) 。 但这些问题也合情合理 , 毕竟你把一块放大的饼干给普通人看 , 他们也有可能会误认为是一块煎饼 。 ”这些不确定因素造成Pic2 Recipe的识别正确率只有65% , 研究团队正在提升Pic2 Recipe的精准度 , 并继续丰富它的技能 。
2018年 , Facebook人工智能研究所的研究人员使用和Pic2 Recipe不同的演算方式 , 开发了另一个AI食谱生成系统 , 藉由美食图片识别餐品的菜名、食材原料组成与加工程序 。
传统的食谱识别系统被表述为一个检索任务 , 根据嵌入空间中的图像相似度评分从一个固定的食谱资料库中检索出来的 。 这类系统的性能在很大程度上取决于资料库的大小和多样性 , 以及所学的嵌入质量 。 缺点是当资料库中不存在查询目标的匹配菜谱时 , 这些系统就会失效 。
针对这个不足 , Facebook研究团队转换了思考方向 , 将图像到食谱问题公式化为条件生成问题 。 利用食物图片和对应食谱来做AI模型训练 , 使用预先训练的图像编码器和成分解码器 , 让它们利用从输入图像和成分共现中提取的视觉特征来预测一组成分 。 将图像及其相应的成分列表为条件生成指令序列 , 推导出它们的加工方式 , 形成多份可能的食谱 。 再根据加工方式的可能性从高到低排列 , 以此生成最终食谱 。
由于食品在加工后往往会形成严重的形变 , 而且成分经常在烹饪的菜肴中被掩盖 。 加上原料、调味料、菜色种类及烹饪方式的多元 , 包含温度、火候、烹饪时间等制作过程中的些微差异 , 都会使餐点产生变化 。 这些变量为食谱识别增加了不少难度 , 因此 , 这款可以接受任何图片的FB系统甚至不能准确判断图片内容是否为食物 。 当研究团队导入月亮图片时 , 系统将其认作煎饼;而皮卡丘的图片则被识别为煎蛋 。
随着人工智能自动化和图片识别技术逐渐成熟 , 食谱识别的相关研究已持续进行了数年 。 食物成分识别可帮助我们管理营养摄入情况 , 也能为厨师及烹饪爱好者提供灵感 。 但烹饪活动本身的变量极大 , 加上食物图片质量受拍摄技术、距离及环境等因素影响 , 现在的食谱识别技术尚未成熟 , 仍有不少问题尚待解决 。 想要获得新食谱 , 上网搜索关键词或许比拍照更加便捷可靠 。