向人类再进一步|MIT×UMich探索可以理解物体空间关系的人工智能_物体_关系
作者 | 莓酊
编辑 | 青暮
人类在描述场景时,常常描述物体之间的空间关系。生物视觉识别涉及自上而下通路和自下而上通路的交互,而深度神经网络只仿照了第二种通路。自上而下的视觉通路涉及生物视觉感知的全局性、拓扑性、多解性等特点,尤其是理解图像时会面临数学上的无穷解问题。而这些特点或许便是深度神经网络下一步的改进方向。
“视觉场景理解包括检测和识别物体,推理被检测物体之间的视觉关系以及利用语句描述图像区域。”依据《我们赖以生存的隐喻》的不雅观点,物体关系比较于语义关系是更加基本的,由于语义关系背后都包含着物体关系的假设。
就如下图中,两只猫猫在「互殴」,另一只猫猫在阁下不嫌事大地看热闹。通过这个例子,人类可以非常清晰直接地不雅观察并捕捉到猫咪的位置、行为和关联。但许多深度学习模型却无法以相同的办法理解繁芜实况,捕获全部信息并进行解析,由于它们不明白单个物体之间的「纠缠」关系。
那么问题来了,如果「捋不清」这些关系,像被设计用于厨房的机器人就很难实行「拿起菜板左边的柜子下面的炉灶上的铁锅炖大鹅」此类指令。
为了让机器人能够精准完成这些任务,来自麻省理工学院的Shuang Li、Yilun Du和伊利诺伊大学喷鼻香槟分校的Nan Liu等人互助提出一款可以理解场景中物体之间空间关系的模型。该模型具有很好的泛化能力,能够通过组合多个物体的空间关系从而天生或者编辑繁芜的图片。论文已作为Spotlight展示被NeurIPS 2021吸收。
论文链接:https://arxiv.org/abs/2111.09297
总的来说,研究紧张有三个紧张贡献:
1. 提出了一个框架来分解和组合物体之间的关系,该框架能够天生和编辑图像根据通过组合物体之间空间关系描述,并且明显优于基线方法。
2. 能够推断出潜在物体之间的场景描述,并能够很好的理解物体之间的语义等效。语义等效是同样的场景但是不同的表述办法,例如苹果在喷鼻香蕉左边和喷鼻香蕉在苹果右边。
3. 最主要的这个方法通过组合物体关系的描述可以推广到以前未见过的更繁芜关系描述中。
这种泛化可以运用于工业机器人实行繁芜多步骤的操纵任务,比如在仓库中堆放物品或组装电器。让机器能进一步“仿生”人类从环境中学习、互动,并且通过不断学习分解,组合从而很快适应新的环境和学习新的任务。
共同一作Yilun Du说道:“当我们看到一张桌子时,不会用空间坐标系的XYZ三轴来表达物体位置, 由于人类大脑不是这样事情的。我们对周围环境的洞悉是基于物体之间的关系。通过构建能够理解物体关系的系统,更有效地操纵机器从而改变周围场景。”
单次单个关系
研究职员所提框架的亮点就在于,「它能以人类的办法“解读”场景中物体之间的关系」。
比如输入一段文本——木桌在蓝色沙发的右侧,木桌在木柜的前面。
系统首先将句子拆分为「木桌在蓝色沙发的右侧」和「木桌在木柜的前面」两部分,再逐一描述单独部分之间的空间关系,然后对每个关系概率分布建模,通过优化过程将这些分离的“构造”汇合,最终生成一个完全、准确的场景图像。
基于能量的模型(Energy-Based Model)
研究职员利用机器学习中「基于能量的模型」编码每一对物体直接的空间关系,然后像乐高积木一样将它们组合起来从而描述全体场景。
共同一作Shuang Li阐明道:“系统通过重新组合物体之间的描述,从而产生很好泛化能力,可以天生或者编辑以前没有见过的场景。”
Yilun Du也表示:“其他系统是从整体上考虑场景中物体之间的关系,再根据文本描述中一次性天生场景图像。一旦包含更繁芜的场景描述时,这些模型就无法真正的理解并且生产想要的场景图像。我们将这些单独的、较小的模型集成起来,实现对更多的关系进行建模,从而可以生产新颖的组合。
这个模型也可以逆向操作。给定一张图像和不同的描述文本,它能准确找到场景构造中与物体关系相匹配的描述文本。
理解繁芜场景
每种情形下,Nan Liu等人提出的模型都优于基线。
“我们的模型在演习过程中只见过一个物体关系描述,但是在测试中,当物体关系描述增加到两个、三个乃至四个的时候,我们的模型依然效果良好,其他机器学习方法则失落败了。”
如图所示,图像编辑(Image Editing) 列出了不同方法在 CLEVR 和 iGibson 数据集上的分类结果。文中方法都大大优于基线—— StyleGAN2和StyleGAN2 (CLIP)。在 2R 和 3R 测试子集上的模型亦有精良表现,所提方法对演习分布之外的关系场景描述具有良好的泛化能力。
研究职员还请实验参与者评估天生图像和场景描述的匹配度。在描述包含三个物体关系的最繁芜示例中,91% 的人认为该模型比其他基线的性能更好。
在模型代码网页上Interactive Demo的展示中,可以清晰看到新模型在多层物体位置中依然可以按照指令准确天生我们想要的图像。
OpenAI演习的神经网络模型「DALL·E」,也是可以根据文本标题为自然措辞的各种观点创建图像。DALL·E 虽然可以很好的理解物体,但是不能够准确的理解物体之间的关系。
可以说Nan Liu等人提出的新模型鲁棒性十分优胜,特殊是在处理从未碰着的场景描述时,其他算法只能望其项背。
虽然早期实验效果甚佳,但研究职员希望模型能够进一步在更繁芜的真实天下场景中(比如具有喧华的背景和相互阻挡的物体时)实行任务。更进一步让机器人能够通过***推断物体空间关系,然后运用这些知识来和周边环境中的物体交互。”
捷克技能大学捷克信息学、机器人和掌握论研究所的精彩研究员 Josef Sivic 说:“开拓出可以理解事物关系并且通过不断组合认识新的事物是打算机视觉领域至关主要的开放问题之一。他们的实验结果其实令人惊叹。”
作者先容
Nan Liu, 伊利诺伊大学厄巴纳喷鼻香槟分校硕士。2021 年毕业于密歇根大学安娜堡分校,得到打算机科学学士学位。目前从事研究打算机视觉和机器学习。
Shuang Li, MIT CSAIL博士,师从Antonio Torralba。紧张研究利用措辞作为互换和打算工具以及构建可以持续学习并与周围天下互动的智能体。
Yilun Du,MIT CSAIL博士生,受 Leslie Kaelbling 教授、Tomas Lozano-Perez 教授和 Josh Tenenbaum 教授辅导。他对构建可以像人类一样感知理解天下的智能体和对构建模块化系统感兴趣。曾在国际生物学奥林匹克竞赛中得到了金牌。
Joshua B. Tenenbaum,MIT脑认知科学系教授、CSAIL研究员。1993 年得到耶鲁大学物理学学士学位,1999 年得到麻省理工学院博士学位。Tenenbaum因对数学生理学和贝叶斯认知科学的贡献而有名,他是最早开拓并将概率和统计建模运用于人类学习、推理和感知研究的人之一。2018 年,R&D 杂志将 Tenenbaum 评为“年度创新者”。麦克阿瑟基金会于 2019 年付与他麦克阿瑟研究员称号。
Antonio Torralba,MIT电气工程与打算机科学系 (EECS) 人工智能与决策系主任、CSAIL的首席研究员、MIT-IBM Watson AI Lab卖力人、2021 AAAI Fellow。1994年得到西班牙电信BCN的电信工程学位,并于2000年得到法国格勒诺布尔国立理工学院的旗子暗记,图像和语音处理博士学位。他是“打算机视觉国际期刊”的副主编,并在2015年担当打算机视觉和模式识别会议的操持主席。2008年国家科学基金会职业奖,2009年IEEE打算机视觉和模式识别会议上得到最佳学生论文奖,2010年获JK国际模式识别协会颁发的Aggarwal奖。2017年Frank Quick Faculty研究创新奖学金和Louis D. Smullin精良传授教化奖。
参考链接:
https://news.mit.edu/2021/ai-object-relationships-image-generation-1129
https://openai.com/blog/dall-e/
https://composevisualrelations.github.io/
https://arxiv.org/abs/2111.09297
雷峰网雷峰网
本文系作者个人观点,不代表本站立场,转载请注明出处!