为云处理优化谷歌开源两款人工智能图像瓜分模型_图像_芯片
集微网,谷歌的定制张量处理单元(TPU)芯片是谷歌云平台客户去年利用的最新一代芯片,专门用于AI的推断和演习任务,比如图像识别、自然措辞处理和强化学习。
据venturebeat宣布,为了支持开拓利用它们的运用程序,山景城的公司已经稳定地采取了开源架构,比如BERT(一种措辞模型)、MorphNet(一种优化框架)和ui - rnn(一种扩音系统),常日还附带了数据集。延续这一思路,谷歌本日在其库中添加了两种新的图像分割模型,并声称这两种模型都实现了支配在云TPU pod上的最前辈的性能。
该模型- Mask R-CNN和DeepLab v3+ -自动标记图像中的区域,并支持两种类型的分割。第一类是实例分割,它为一个或多个工具类(例如,家庭照片中的人)的每个实例供应一个惟一的标签,而语义分割则根据图像所代表的工具或纹理类对图像的每个像素进行注释。(例如,一个城市的街景可能被标记为“路面”、“人行道”和“建筑物”。)
正如谷歌所阐明的,Mask R-CNN是一个两阶段的实例分割系统,可以同时定位多个工具。第一个阶段从输入照片中提取模式,以识别可能感兴趣区域,而第二个阶段在为每个输入照片天生像素级掩码之前,对这些建议进行细化,以预测工具类。
另一方面,DeepLab 3+优先考虑分割速率。利用谷歌最新一代TPU硬件(v3)上的TensorFlow机器学习框架,在开源PASCAL VOC 2012图像语料库上进行培训,在不到5小时的韶光内完成培训。
Mask R-CNN与DeepLab 3+的教程从本周开始在谷歌的互助平台上开放。
TPUs是一种特定于运用程序的集成电路(asic),它是液态冷却的,设计用于插入做事器机架,内部用于支持谷歌照片、谷歌云视觉API调用和谷歌搜索结果等产品。最新一代——第三代于2018年5月发布。谷歌声称它可以供应高达100千万亿次浮点运算的性能,大约是其第二代芯片的8倍。
谷歌并不是唯一一个为人工智能优化的云托管硬件。今年3月,微软推出了Brainwave——一组现场可编程门阵列(fpga),旨在加速机器学习操作——来选择Azure客户。(微软表示,这使其Bing搜索引擎的性能提高了10倍。)与此同时,亚马逊向客户供应了自己的FPGA硬件,据宣布,亚马逊正在开拓一种人工智能芯片,该芯片将加速其Alexa语音引擎的模型演习。(校正/木棉)
本文系作者个人观点,不代表本站立场,转载请注明出处!