快捷搜索:

科学知识

当前位置:betway必威官网手机版 > 科学知识 > betway必威官网手机版旷视科技首席科学家孙剑,

betway必威官网手机版旷视科技首席科学家孙剑,

来源:http://www.abirdfarm.com 作者:betway必威官网手机版 时间:2019-07-12 07:25

原标题:旷视科技首席科学家孙剑:计算机视觉研究如何改变我们的生活?

微软机器视觉、语音处理、视频检索人工智能开源工具和深度学习框架。

本文介绍了微软在人工智能领域的领先成果、产品线,开源人工智能框架和工具。读者可以运用这些工具快速开发机器视觉、语音处理、视频检索等丰富的人工智能应用。

微信公众号:人工智能小技巧

本文配套B站视频:用微软Custom Version识别水果图片:不用写代码,三分钟做一个人工智能小应用

发布于2018-11-7

12道人工智能领域的题目,答题的过程让大家都get到新姿势了吗?

本文介绍了计算机视觉常用工具:卷积神经网络。用大白话讲解了其应用领域、卷积、池化、全连接、梯度下降、反向传播算法。并用三维可视化工具展示了手写字体识别的卷积神经网络案例,最后介绍了几个经典的卷积神经网络模型以及一些新手易上手的计算机视觉开源项目。

本文配套B站视频:三分钟走进卷积神经网络

本文配套B站视频:大白话讲解卷积神经网络工作原理

强烈建议先看上面两个视频再阅读本文!

关注微信公众号 人工智能小技巧 回复 卷积神经网络 或者 CNN 即可看到文中的B站视频、Gif动画、三维可视化卷积神经网络网站

于2018-11-10发布

科技世界网     发布时间:2017-05-13    孙剑博士2003年毕业于西安交通大学,后一直在微软亚洲研究院工作,担任首席研究员。其主要研究方向是计算摄影学,人脸识别和基于深度学习的图像理解。自2002年以来在CVPR,ICCV,SIGGRAPH,PAMI等顶级学术会议和期刊上发表学术论文90余篇,两次获得CVPR最佳论文奖(2009,2016)。孙剑博士于2010被美国权威技术期刊MIT Technology Review评选为“全球35岁以下杰出青年创新者”。孙剑博士带领的团队于2015年获得图像识别国际大赛五项冠军(ImageNet分类,检测和定位,MSCOCO检测和分割)。孙剑博士拥有四十余项国际或美国专利,他和他的团队的研究成果被广泛应用在微软Windows,Office,Azure,Bing,Xbox等产品中。孙剑博士于2016年7月正式加入旷视科技担任首席科学家。 大家好,我是Face 的孙剑。 前面大家提到人工智能的前景,共识是目前感知智能已经做的很不错了,但仍旧没有明确的思路去做认知智能。 Face 旷视科技的研究团队现在集中精力在做感知智能。我们的基本思路很简单:做技术,做产品,做数据,希望让三者形成正循环来推动人工智能的发展。

betway必威官网手机版 1

[TOC]

 

[TOC]

我在Face 和微软做的事

我在Face 做的核心技术研究与我在微软时做的方向一致:图像分类、物体检测、语义分割、和序列学习。 关于第一个核心技术在ImageNet上的进展:去年我和微软团队做的ResNet一举把网络的深度从十层或二十层推到152层,效果非常好,而且这个模型我们已开源,并且在业界得到了广泛应用。在Face 我会继续进行这个方向的研究,我们系统是ResNet的一个改进版,它和微软时的系统有何不同呢?新版本融入了新的网络架构设计思想,现在一个新的改进版ResNet在ImageNet上可以媲美以往组合六个ResNet。 图像分类中一个很重要的问题叫做人脸识别,2013年我跟微软的同事做出High-dimensional Feature,这是是没有深度学习时最好的方法。随后Facebook用了DeepFace,也是第一次用深度学习神经网络方法,使得人脸识别率与人类眼眼的识别率非常接近,随后很多家公司包括Face 均采用了深度学习的方法在数据集上超过人眼识别率。 那么计算机真在人脸识别率上超过了人了吗?我的回答是:很多情况下,是的。例如在身份认证和智能安防方向的应用,Face 的人脸识别产品已经超过了人。人脸识别研究已有三十年,今天我们是第一次在上亿的规模上应用人脸识别。 我们关心的第二个核心技术是物体检测,即,将各种物体在图像中识别并定位出来,换句话说就是不但要识别图像包含什么物体,还要知道物体在哪里。目面Face 拥有一个在著名的VOC2012物体检测的评测中性能最好的单模型物体检测器。为什么强调单模型呢?因为考虑到端上计算力的限制,我们在实际产品广泛使用单模型。 我们关心的第三个核心技术是语义分割,就是对每个像素分类。这是一个更为精细的分类工作。我们Face 的一名实习生的工作目前在VOC2012语义分割评测中名列第一,他现在正在准备CVPR的投稿。我们欢迎广大的在校学生来我们公司做最顶尖的研究,做更有趣的应用。语义分割还能应用在智能安防场景中,这个视频展示了我们不仅可以把人分割出来,还能把人的不同部位分割出来。由于时间原因,关于序列学习我就不展开了。 做这些技术需要一个做训练引擎和平台,目前行业里较为流行的有微软的CNTK,谷歌的TensorFlow,和开源的Caffe。而Face 则有着自己的平台叫Brain ,它的设计与TensorFlow相似。TensorFlow发布至今有一年的时间,而我们的Brain 已经在公司运行将近两年了。做自研的平台非常关键,公司敢做并能做,是因为我们拥有最顶尖的人工智能技术人才,我们的研究团队应该是中国ACM金牌选手密度最高的地方。目前在人工智能创业公司中使用自己的深度学习训练引擎的,可能只有Face 。 有了这样的平台和技术,我们打造了两方面的产品:SmarTID,用来提供身份认证服务;SmartCamera,用来将智能前端化。目前我们产品覆盖包括银行、金融、、互联网、零售、地产、公共安全和机器人等行业。我们希望通过“人工智能 ”把人工智能渗透到每个行业当中。 这里有几个数字,Face 人工智能云开放平台的API已经服务了近七万开发者,已被调用62亿次;我们的身份认证平台目前已为一亿人,注意不是一亿次,提供了身份认证的刷脸服务,覆盖了85%的金融市场智能化应用。

图片来源:www.pexels.com

本文中的部分图片来自学堂在线慕课:微软人工智能-深度学习框架和工具

在收到的48个回答中,有两位读者全部答对,真的是非常厉害啦!

卷积神经网络可以处理图像以及一切可以转化成类似图像结构的数据。相比传统算法和其它神经网络,卷积神经网络能够高效处理图片的二维局部信息,提取图片特征,进行图像分类。通过海量带标签数据输入,用梯度下降和误差反向传播的方法训练模型。

从感知智能走向认知智能

一般情况下我的报告到这里就结束了,但今天是回家汇报,那我就再继续分享一些对人工智能更个人的看法。我也一直在问自己一个问题,我们当下研究AI方法,是在爬树还是在造火箭。 这里有一幅画的内容是这样:你要想上月球,选择爬树能接近月球,每年还能有不错的进展,有些树高得可能一辈子都爬不完,但到不了月球那里。如果我们不知道怎么造火箭,只用爬树的方法,是永远上不了月球的。 那么问题来了,我们现在研究AI的方法到底是在爬树还是在造火箭?按我们目前的办法到底能不能上“月球”? 再回到开场时的提及的感知智能和认知智能这一话题。大多数感知智能能做下去,是因为我们能够很明确的定义他的输入和输出是什么,然后我们用非常深的神经网络去拟合一个函数f就可以。 但在认知智能方面,我们不知道如何去定义它,不知道如何去准备训练数据或环境,换个说法或许是这个系统太复杂,以至于我们无从入手。所以我把大多数人做的、特别是工业界研究人工智能的方法概括为方法一。 什么是方法一?方法一就是:从实践到理论。 靠不断地实践来得到理论,不过严格意义上讲,其实是没理论。由于人工智能这个大问题过于复杂,我们也比较现实地把它拆分为很多很多子问题:如语音、视觉、自然语言等等。这就是我们目前研究人工智能的方法。 于是我们问自己有没有方法二,能不能从理论到实践,能不能先有一个理论,然后应用到所有问题当中去。 那现在到底有没有这样的指导性理论呢?我自己是一直不大相信有的,借用我的博士导师沈向洋的一句话:哪儿有那么多随便就能指导实践的理论。

撰文 | 邸利会(《知识分子》主笔)

提起微软,大家首先想到的就是世界首富比尔盖茨以及Windows操作系统等微软产品,近几年,微软大规模部署人工智能领域,开发了一系列基于人工智能技术的产品和深度学习开源框架,并致力于开源社区的建设。微软在2018年10月底完成了对全球最大开源代码托管网站Github的收购。2018年2月,本文作者在宾夕法尼亚大学沃顿商学院聆听了微软新总裁Satya Nadella的演讲,并在慕课网站学堂在线学习了慕课:微软人工智能-深度学习框架和工具 ,遂撰写本文对微软AI产品线及开源生态做一个介绍。

今天,就让我们一起回顾一下题目,并看看正确答案的解释吧!

betway必威官网手机版 2图像识别betway必威官网手机版 3人脸识别

大脑皮层给人工智能的启示

直到我最近重新读了一遍Jeff Hawkins写的《人工智能的未来On Intelligence》,我有些相信了。这本书出版于2004年,此前我在2009年读过一次。Jeff Hawkins是Palm的创始人,在创立Palm前他已经学习了很多人脑科学方面的知识。他在做Palm赚够钱后建立了Numenta研究所,专门研究机器智能。他写这本书的一个很大动机是对外阐述他对机器智能的理解。 书中写到大脑分为两部分:大脑皮层和旧脑。 大脑皮层大概有六层,每层两毫米厚,铺开的面积可能比桌子还要大,每个神经元和周围的成千上百的神经元相连接。大脑皮层并不是突然出现,最开始爬行动物是没有大脑皮层的,而在几千万年前哺乳动物开始有了大脑皮层,几百万年前人类的大脑皮层突然增大,使得人和动物划开了界限。 书中最让作者包括我信服的观点是:人比动物聪明,是因为人类大脑皮层简单迅速地复制了自己,而不是生成其他特殊的结构;几百万年的时间不足以生成一个特殊的结构。 上世纪70年代曾有人提出这样一个观点:大脑皮层是同质的,每个地方都一样,这下面可能存在一个主管我们人类智能的通用的算法;人类有不同的各种感知只是因为不同的输入器官与大脑皮层相连接。 而且大脑皮层可以重塑,如果某个人天生失明,那他原来主管视觉部分的皮层可以演化为听觉部分,大脑皮层的各部分功能不是固定下来一定要做什么的。 大脑皮层的这个通用算法其实是在实时处理时-空的神经元突触的电位变化,这里面有个计算方法,该计算方法和计算机的计算方法不同,它不是靠算的。有神经学的分析,人类的大脑的运算速度并不快,大脑不是在计算,而是在记忆中直接提取相似的东西,从而直接回答答案。简单来说,人是利用记忆系统来完成计算的。 我这里列出了书中对人类记忆的属性的描述,时间关系就不详述了。 Jeff Hawkins在最后展示他的智能理论新构架时问:什么是理解? 他举个例子,如果我们回到家看到家中的环境,我们可能不会特别注意到什么;但家里假如出现一个新物体,我们的注意力马上就会被吸引过去。Jeff Hawkins做出以下理论解释:大脑时时刻刻都在做着各种预测,如果哪个地方预测失败了,那个地方可能就是出现了新情况或新物体。此外,大脑皮层还在做各种各样的从初级到高级的预测。

责编 | 陈晓雪

betway必威官网手机版 42018年2月微软总裁在沃顿商学院讲座

1、人工智能历史上第一个战胜人类的棋类游戏是?

Github开源人脸识别项目face_recognition中文文档

betway必威官网手机版旷视科技首席科学家孙剑,微软开源人工智能工具和深度学习框架。从理论到实践

这里有个非常有意思的故事,当年我们写过一篇关于图像修补(Image CompleTIon)的论文,论文的研究内容是猜测被遮挡住物体的后面是什么样子的。其实人也在有意识无意识的预测这种事。当年我们在和沈向洋老师一起写论文时就是在预测某个物体的后面是什么,然后把它画出来。 《人工智能的未来》一书的理论简单来说,就是该理论认为智能是一个记忆-预测(Memory-PredicTIon)的框架,智能是你能够利用对这个世界模式的记忆和预测的能力来衡量的。图灵定义图灵智能,是利用行为来衡量。而Jeff Hawkins并不同意。 我第一次读过这本书后受到很大的启发,于是在2011年写过一篇CVPR论文。论文内容是为解决大姿态下人脸识别的问题:我们构建一个人脸数据库,构建一个记忆,希望把正面脸和侧面脸通过记忆连接起来,这是当时人脸识别最好的方法。有趣的这篇论文的第一作者是Face 的CEO&创始人印奇。 目前在神经网络的研究中,我们认识到记忆的重要性,如果没有记忆,那么训练出来的系统仅能完成一个简单的f,所以目前业界最近有很多的人工智能最前沿工作均集中在如何实现有效的记忆机制,如何存储不变表示等方面。 最后回到报告的题目,当下我们都苟且在方法一上,我以前不是那么相信从理论到实践;但现在我相信从理论到实践的方法二是存在的,而且就像大脑皮层简单复制自己一样可能没有那么复杂。方法二的到来比我们想象的更快。

●●●

ResNet在2015年ImageNet比赛分类任务中获得第一名,在图像分类方面已超过人眼。ResNet共有152层,但它不仅仅靠深度取胜,而是通过残差学习的方法训练模型,通过“跨层抄近道”的方法减少参数数量,简单而实用。衍生出ResNet50和ResNet101旁支,Alpha zero(只训练8个小时就打败了AlphaGo的下棋机器)也使用了ResNet。

A、国际象棋

betway必威官网手机版 5车道识别betway必威官网手机版 6卷积神经网络处理语音betway必威官网手机版 7卷积神经网络处理文本信息

计算机视觉,听起来似乎很遥远的一个名词。但它的应用,你一定不会陌生。比如,今天在某些城市,如果乱闯红灯,就可能被路口的摄像头捕捉到。从美颜自拍,到增强现实(AR)、虚拟现实(VR)游戏,还有用无人机在人迹罕至的地区检测高压线路,背后都有计算机视觉的参与。

ResNet的作者何恺明是2003年广东省理科高考状元,本科毕业于清华大学,博士毕业于香港中文大学,曾在微软亚洲研究院孙剑领导的研究组实习。何恺明在图像去雾领域也成果颇丰。

B、围棋

网站:三维可视化卷积神经网络

在这一领域,孙剑博士是其中的佼佼者。

betway必威官网手机版 8ResNetbetway必威官网手机版 9ResNet

C、西洋双陆棋

关注微信公众号 人工智能小技巧 回复 卷积神经网络 即可看到这个手写字体可视化网站。

2009年和2016年,孙剑两获计算机视觉领域的顶级会议CVPR(IEEE Conference on Computer Vision andPattern Recognition)最佳论文。2010年,他还入选《MIT技术评论》35岁以下年轻创新者。通过设计152层的神经网络ResNets,孙剑所带领的微软亚洲研究院团队在2015年获得ImageNet和MS COCO比赛的五项第一。

科普文:大白话讲解卷积神经网络工作原理

D、四国军棋

betway必威官网手机版 10可视化手写字体识别卷积神经网络betway必威官网手机版 11LeNet-5betway必威官网手机版 12卷积神经网络工作流程

在微软研究院从事研究13年之后,他在2016年7月加入旷视科技,任首席科学家、研究院院长。旷视研究院从事基础以及应用研究,聚焦于深度学习算法、架构和数据科学。最近,孙剑带领的旷视研究院团队获得了COCO和Places挑战赛2017的三项冠军。

视频:三分钟走进卷积神经网络

1979年,由Hans Berliner(1929-2017)开发的一个西洋双陆棋程序,以7:1的成绩击败了当时的世界冠军Luigi Villa。创下了计算机第一次在智力游戏中击败冠军级别人类竞争对手的历史。

1、把手写字体图片转换成像素矩阵

在前不久举行的CCF-GAIR全球人工智能与机器人峰会发表题为《云、端、芯上的视觉计算》演讲后,孙剑博士接受了《知识分子》的独家专访。他用自己的研究经历说明,计算机视觉研究是如何改变我们的生活的。

视频:大白话讲解卷积神经网络工作原理

2、ImageNet的模型中AlexNet的作者中有下列哪个人物?

2、对像素矩阵进行第一层卷积运算,生成六个feature map

betway必威官网手机版 13

betway必威官网手机版旷视科技首席科学家孙剑,微软开源人工智能工具和深度学习框架。Switchboard能够识别堪比英语专八水平的电话音频中的每个单词

A、Geoffrey Hinton

3、对每个feature map进行下采样,在保留feature map特征的同时缩小数据量。生成六个小图,这六个小图和上一层各自的feature map长得很像,但尺寸缩小了。

计算机视觉的核心问题一直没变

betway必威官网手机版 14语音识别

B、Yushua Bengio

4、对六个小图进行第二层卷积运算,生成更多feature map

《知识分子》:1993年到2003年,你一直在西安交通大学读书、做研究,那个时候的计算机视觉的研究面貌跟现在很不一样吧?

微软已经将人工智能应用部署在自己的产品中,比如语音识别小助手Cortana、Office 365,你也可以用微软提供的GPU服务器和FPGA服务器训练深度学习模型。

C、Yann Lecun

5、对第二次卷积生成的feature map进行下采样

孙剑:其实研究的问题是一样的。计算机视觉研究的问题几乎没怎么变,因为核心问题就是研究怎么样去做分类检测、识别跟踪,大致就是这些问题。

betway必威官网手机版 15微软AI产品betway必威官网手机版 16微软AI产品线

D、Andrew Ng

6、第一层全连接层

西安交大的“人机所”成立已经30多年了,成立之初就叫人工智能与机器人研究所,那时有做图像的,比如有国防项目就是用摄像头看一个车,去跟踪,这样就需要做车的检测、跟踪,跟今天做的是一样的。

Cognitive Services为开发者提供计算机视觉、自然语言处理、语音翻译、搜索等各领域应用程序接口,开发者只需要简单调用API即可。

ImageNet大规模视觉识别挑战赛被誉为计算机视觉乃至整个人工智能发展史上的里程碑式的赛事。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton创造了一个大型的深度卷积神经网络,也即现在众所周知的AlexNet,赢得了当年的ILSVRC,这是史上第一次有模型在ImageNet 数据集表现如此出色。

7、第二层全连接层

也有机器人项目。那个时候国有机器人还很少,我的导师郑南宁老师从日本引进了一台机器臂的设备,我们专门有一个机器人的组来研究怎么去控制这个机器人,学习里面的基本知识,操作机器人抓东西,跟今天的研究也是一样的。目前这个方向已经有很大进展,但是还不够,还需要更大的进展,因为这是更难的问题——感知问题,只是被动的看,怎么能够主动地去和世界交互,这个是更难的。看的话,很容易教计算机,给它一张照片,然后就可以学;但是交互的过程,很难有大规模的交互的例子能提供给计算机,让它理解,所以这个是最难的。

betway必威官网手机版 17微软Cognitive Service

3、现在在机器学习中常用的长短时记忆模型(Long Short Term Memory)是在哪一年提出的?

8、高斯连接层,输出结果

《知识分子》:那个时候,你做什么样的研究?

官方主页:

A、2017

关注微信公众号 人工智能小技巧 回复 卷积神经网络 或者 CNN 即可看到文中的B站视频、Gif动画、卷积神经网络可视化网站

孙剑:人机所其实早期有很多学数学的老师和博士,最早我们做了很多机器学习的事情。机器学习基本的知识、概念,如何做机器学习,我都是在人机所学习得到的,然后把它运用在计算机视觉上。

用微软的开源计算机视觉开发工具Custom Vision快速开发图像分类小应用。初学者不需要有任何深度学习、图像处理的算法知识,小学生都能快速上手。

B、2007

用卷积核在原图上滑动,进行卷积运算,得到特征图feature map。

举个例子,我自己本科毕业设计时,做了一个硬件设备——硬件电路板,来实现混沌神经网络,当然现在它不是主流。混沌神经网络能够记忆一些模式,是用硬件来实现的,因为当时的算力在CPU上是做不好的,一定要在硬件上来做这件事情。

B站视频:用微软Custom Version识别水果图片

C、1997

卷积的本质:将原图中符合卷积核特征的特征提取出来,展示在feature map里面。

我读硕士的时候,就是用神经网络来做人脸检测和简单的人脸识别工作。但是,其实当时的人脸识别就仅限于人脸或者是一些车牌这样的识别,能够做到一定地步。我博士做的方向是3D感知,也就是立体匹配。计算机视觉有两大核心问题:一个问题是3D重建;一个问题是识别。这样就把计算机视觉的一些基本问题学习了一下。

betway必威官网手机版 18Custom Vision

D、1987

如果原图是X,卷积核是X,那么卷积核在原图上卷积运算之后生成的feature map也是X。

《知识分子》:LeCun教授1998年提出LeNet-5,用卷积神经网络,你硕士的时候的神经网络是怎样的?

官方主页:

LSTM模型于1997由Sepp Hochreiter和Jürgen Schmidhuber两人提出,于2000年被Felix Gers小组优化。长期短期记忆(LSTM)单元是用于递归神经网络(RNN)层的建筑单元。由LSTM单元组成的RNN通常被称为LSTM网络。

如果原图是O,卷积核是O,那么卷积核在原图上卷积运算之后生成的feature map也是O。

孙剑:我那时候用的那些神经网络不是卷积神经网络,它可以认为是全连接网络的一些改进,做了一些分组,跟卷积有点像。卷积神经网络是我(本科)毕业以后才出现的,最早做手势识别、光学字符识别(Optical Character Recognition, OCR),大家也没觉得那个能怎么样,真的就是这样。后来,在2000年的时候出现了支持向量机(Support Vector Machine, SVM),一统江湖,所有人都在研究这个,所以关注神经网络的人就更少了。

Video Indexer是非常强大的视频和音频处理工具,用户只需上传视频或音频,即可得到关键词分析、时间线字幕、视频中出现的名人及其讲话时段、情绪分析、关键帧以及带字幕和字幕翻译的视频。

4、亚里士多德常说 “自然界选择最短的道路”,这在机器学习中常被称作?

如果原图是O,卷积核是X,那么卷积核在原图上卷积运算之后生成的feature map就是乱码。

《知识分子》:你在2009年就得过CVPR的最佳论文奖?

betway必威官网手机版 19视频样本betway必威官网手机版 20字幕betway必威官网手机版 21翻译

A、奥卡姆剃刀原理

权值共享:卷积核扫过整张图片的过程中,卷积核参数不变。

孙剑:对。那篇论文不是关于深度学习的,做的是计算摄影学。计算摄影学是做什么呢?比如,我们公司有一个业务叫手机智能,不是造手机,而是给手机提供核心的算法,人脸解锁是很大的一个应用,另外一个是如何让照片拍得更好看。

与其它开源人工智能框架(比如谷歌的Tensorflow、Facebook的Caffe,以及Keras、Torch、Theano)相比,微软的开源人工智能框架CNTK最大的优势就是训练速度快、分布式和并行计算性能好。同时,CNTK也支持各种操作系统,提供各种编程语言的开发工具。

B、没有免费的午餐

下图的动画中,绿色表示原图像素值,红色数字表示卷积核中的参数,黄色表示卷积核在原图上滑动。右图表示卷积运算之后生成的feature map。

计算摄影学是我博士毕业后的一个研究方向,研究如何通过软件和硬件的修改,拍出更好的或者通过一般的技巧拍不到的照片。比如,今天用手机虚化背景,模拟单反照片的效果,这个就是计算摄影学——修改相机硬件,就能实现这样的新的效果,以及加了人工智能算法,使画质得到提升。

betway必威官网手机版 22微软开源人工智能框架CNTKbetway必威官网手机版 23CNTK收敛速度betway必威官网手机版 24CNTK并行计算能力

C、经验风险最小化原理

betway必威官网手机版 25卷积

计算摄影学是计算机视觉和图形学的交叉,我做了很长时间这个工作。那个时候手机还没有这么强大,做完了以后,目的是应该放到单反相机、卡片机里面去,但是这些厂商(其实也是对的)需要做快速改动的能力和意愿不是那么强,所以并没有在相机或者单反上广泛使用,这大概是在十几年前的事情。今天,时代不一样了,相机计算力非常强,里面有很好的图像传感器,甚至在晴天下拍的照片和单反看不出区别。另外,现在的手机厂商也非常重视这个方向,如果看手机发布会的话,基本上照片拍的效果是竞争的一个亮点,所以这也是我们目前投入很大的一个方向。我们去年成立了旷视研究院的西雅图分院,专门研究计算摄影学在手机上的创新和应用。

CNTK通过减少数据传输量、传输次数,通过异步处理和管道机制权衡训练和传输代价,加速深度学习模型训练。

D、炼丹原理

下图展示了RGB三个通道图片的卷积运算过程,共有两组卷积核,每组卷积核都有三个filter分别与原图的RGB三个通道进行卷积。每组卷积核各自生成一个feature map。

我自己也挺感慨的,以前做研究,做完以后发一些文章,顶多Photoshop里面可能用一些这样的算法,离实际生活还是蛮远的,今天真的能够用深度学习的方法重新做一轮这样的问题,能够很快用在手机上,这个感觉,非常高兴。

betway必威官网手机版 26CNTK的并行计算能力betway必威官网手机版 27CNTK支持的编程语言betway必威官网手机版 28微软收购Github

奥卡姆剃刀定律又称“奥康的剃刀”,它是由14世纪逻辑学家威廉(William of Occam)提出。这个原理称为“如无必要,勿增实体”,即“简单有效原理”,“切勿浪费较多东西去做,用较少的东西,同样可以做好的事情。” 这个原理最早至少能追溯到亚里士多德的“自然界选择最短的道路”,亚里士多德在相信实验和观测并无必要上走得太远。

[图片上传失败...(image-951203-1541841048618)]

卷积神经网络袭来

微软研究院在业内号称“AI界的黄埔军校”,以下是微软研究院机器学习组最新进展总结。

5、卷积神经网络起源于哪个任务?

原图最外圈补0:zero padding,便于提取图像边缘的特征。

《知识分子》:你开始研究和使用卷积神经网络是什么时候?

betway必威官网手机版 29微软人工智能新进展

A、图像识别

局部连接:feature map上每个值仅对应着原图的一小块区域,原图上的这块局部区域称作感受野(receptive field)。局部连接的思想,受启发于生物学里面的视觉系统,视觉皮层的神经元就是局部接受信息的。

孙剑:2013年,我在微软带领团队开始做卷积神经网络。2012年AlexNet出来,但刚出来的时候也没有人那么相信(它多么好),尤其是在计算机视觉领域。因为AlexNet只是针对ImageNet,大家不知道它是过拟合了ImageNet,还是在别的任务也管用。2013年的时候,特别是伯克利的RCNN(Regions with CNN features)出现,对于别的数据集的检测提高也非常大,真的具有很强的通用性,所以大家才会非常重视。

分布式机器学习平台DMTK

Multiverso参数服务器开源框架,CNTK异步快速训练的幕后功臣。

B、机器翻译

betway必威官网手机版 30感受野betway必威官网手机版 31感受野

我们是在2013年开始研究,2014年第一次参加了ImageNet,物体检测拿了第二。2015年参加比赛的时候,内部就已经开发出了ResNet,ImageNet拿了三个第一名,COCO拿了两个第一名。而且COCO,只是把ResNet用上去,提升的就非常多,这是我在微软的工作。其实与此同时,旷视也是非常早,用深度学习来做人脸识别,大概也是在2013年开始的,我还没到旷视。他们当时在人脸检测、识别、关键点定位上拿了三个世界冠军,这也是他们做的非常早的一个工作。旷视是最早的用深度学习来做计算机视觉的创业公司之一。

高效的机器学习工具

  • LightGBM:数据竞赛利器
  • LightLDA:超大规模主体模型训练世界纪录保持者
  • LightRNN:大规模文本模型训练

C、个性化推荐

池化也叫做下采样(subsampling),用一个像素代替原图上邻近的若干像素,在保留feature map特征的同时压缩其大小。

《知识分子》:大众对人工智能、深度学习的兴趣很多是通过AlphaGo这样的事情,研究者好像一下子都涌到卷积神经网络的原因是什么?

新的监督学习范式:对偶学习

利用两种语言互相翻译,互相提供翻译标注数据。例如中文翻译成日语,再翻译回中文,与中文原文做比对,进行模型训练。再例如由图像生成文字,再由文字生成图像。使用对偶学习可以用更少的数据训练模型,节省人工标注数据的成本。

betway必威官网手机版 32微软亚洲研究院

微软研究院在业内号称“AI界的黄埔军校”,从中涌现出众多当今互联网界泰山北斗级人物,从谷歌传奇李开复,到百度总裁张亚勤、金山CEO张宏江、微软必应产品负责人沈向洋、现任微软亚洲研究院院长洪小文、IBM“深蓝”之父许峰雄、“阿里云”之父王坚、今日头条副总裁马维英、商汤科技创始人汤晓鸥、2015年ImageNet冠军孙剑、何恺明,百度高级副总裁王海峰、小米总裁林斌、海尔集团CTO赵峰、科大讯飞副总裁李世鹏……

2018年,微软亚洲研究院成立二十年。

微软亚洲研究院20年20人

betway必威官网手机版 33同济大学微软学生俱乐部

Custom Vision

Video Indexer

学堂在线慕课:微软人工智能-深度学习框架和工具

用Microsoft Custom Vision技术识别点东西吧

科普文:大白话讲解卷积神经网络工作原理

B站视频:不用写代码,三分钟做一个人工智能小应用

视频:三分钟走进卷积神经网络

视频:大白话讲解卷积神经网络工作原理

微软亚洲研究院

微软亚洲研究院20年20人

作者介绍:

张子豪,同济大学在读研究生。微信公众号人工智能小技巧运营者。致力于用人类能听懂的语言向大众科普人工智能前沿科技。目前正在制作《说人话的人工智能视频教程》、《零基础入门树莓派趣味编程》等视频教程。西南地区人工智能爱好者高校联盟联合创始人,重庆大学人工智能协会联合创始人。充满好奇的终身学习者、崇尚自由的开源社区贡献者、乐于向零基础分享经验的引路人、口才还不错的程序员。

说人话的零基础深度学习、数据科学视频教程、树莓派趣味开发视频教程等你来看!

微信公众号:人工智能小技巧

Github代码仓库:TommyZihao

个人主页:www.python666.org

同济大学开源软件协会

同济大学微软学生俱乐部

西南人工智能爱好者联盟重庆大学人工智能协会

D、语音识别

池化的作用:

孙剑:我觉得拥抱卷积神经网络也是花了好几年。2012年AlexNet出来时还有人怀疑,不相信,从2013年到现在也5年了,大家慢慢接受了。深度学习核心思想是,它有端到端学习的思想,尽可能不要人来设计复杂系统,因为人的设计能力是有限的。所以更多人去用这个思想来做事情。不是说这个思想是新的,而是如果这个思想有效,就会有更多的人愿意主动去用。

卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层(convolutional layer)和池化层(pooling layer)。CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。

  • 防止数据爆炸,节省运算量和运算时间。
  • 用大而化之的方法防止过拟合、过学习。防止培养出高分低能,在考场称霸但在社会上混不下去的人工智障。

从图像识别来说,从ImageNet或者大规模数据学出来的特征,确实很有通用性。这个特征并不是说抽取语义特性,而是说它能够把很多东西分得开,比如说ImageNet出来的模型在医疗图像上非常好用。医疗图像数据比较少,先用ImageNet训练,以后再用少量的数据根据抽出来的特征再次做学习,可以提供很大的帮助,不然医疗图像这么少的数据,又没有好的特征,确实很难做什么事。

6、OpenAI设计的人工智能在以下哪个电子游戏中击败了人类顶级玩家?

betway必威官网手机版 34池化

《知识分子》:你和合作者在2015年提出ResNet,它解决什么问题?

A、Dota

可以用这些像素的最大值作为代表,也可以用平均值作为代表。

孙剑:训练优化问题。我们在开发之前,大概GoogleNet,VGG就是最好的网络,大概到20多层,再增加层数就不行了,训练都训练不下去;或者训练的难度非常高,说明整体的优化没有做好。

B、LoL

betway必威官网手机版 35最大池化和平均池化betway必威官网手机版 36下采样betway必威官网手机版 37全连接

其实机器学习大概要解决三个问题,一个是说系统是否可以有能力拟合,能力是否够。比如,很简单的一个线性分离器可能无法表示像AlphaGo那么复杂的映射关系,如果加很多层这样的神经网络,能力就是够的。不过,这也只是说理论上能力够。

C、炉石传说

全连接层:输出的每个神经元都和上一层每一个神经元连接。

第二个问题要解决怎么让它拟合上去,就是训练优化问题,ResNet是解决这个问题。当然加了ResNet以后,现在可以说是任何深度层的都可以来拟合。大家常用的是几十层或者是一两百层这样的网络。

D、守望先锋

卷积核的数量、大小、移动步长、补0的圈数是事先人为根据经验指定的,全连接层隐藏层的层数、神经元个数也是人为根据经验指定的,但其内部的参数是训练出来的。

第三个问题今天还没有解决的很好,就是推广能力问题。比如,确认了网络在训练数据、测数据的时候好,如果突然来一个新的场景,能不能也做好?比如说,突然来了一个刮风下雨的天气,又有一个奇怪的车,车上掉了东西下来,这个东西还没见过,这就需要推广能力。这是在训练数据当中无法大规模收集到的,这个问题今天深度学习也好,人工智能也好,还是长期要解决的问题。这跟人不一样,人有推理、抽象,有先验,很多东西都能来帮助我们解决推广能力问题,泛化能力问题。这是下一个深度学习解决的问题。像人脸识别解决的非常好了,但是还有很多任务没有这么好。

2017年8月12日由OpenAI所训练的一款人工智能算法在著名的电子竞技游戏Dota2国际邀请赛The International中,参与了1V1比赛环节,并压倒性的击败了顶级电子竞技选手Dendi。

在手写字体识别可视化卷积神经网络中,有两个全连接层:

《知识分子》:从研究方法上来说,现在是不是一个巨大的改变,都是用深度学习,卷积神经网络来做?

7、世界上第一位女性程序员的名字是?

第一层全连接层:

孙剑:对。基础都得用这个,结合具体问题的一些领域知识,领域知识用得越多越好。现在深度学习已经成为一个工具。我们刚从CVPR2018回来,如果看今年的发展的热点,深度学习已经无处不在了。有几个Talk很有意思,讲者上来就说,我的Talk不包含深度学习,没用深度学习。像以前专门有论文,题目叫深度学习XXX,今天这样的论文题目已经很少了,而是真正深入到问题的本身去研究了。

A、Anne Hathaway

betway必威官网手机版 38第一层全连接

机器学习会长期产生更大的作用

B、Ada Lovelace

第二层全连接层:

《知识分子》:大家都用深度学习了,以前传统的方法会完全抛弃吗?

C、Alexandrina Victoria

betway必威官网手机版 39第二层全连接层

孙剑:没有完全抛弃,像3D的话还是不能抛弃的,3D几何的这些关系,是不能简单那样来描述的。包括图像,其实今天深度学习能做的非常好,但是实际上我们在做很多深入的视觉理解中,拟合一个函数是不够的,还有很多局限性,做不到非拟合函数的一些推理功能。比如,如果两张扑克牌叠在一起很近的话,今天的方法不一定能很好的检测出两张牌,但是人是知道这个牌是方形的,多出来一个角不正常,通过推理就能够推出,下面还有一张牌。人有很强的先验信息,才能把这个问题做好。

D、Jane Austen

输出结果:

《知识分子》:你今天的主题讲的是“云端芯的计算机视觉”,你觉得现在云端、终端和芯片上有哪些不同的要求?

Ada Lovelace是著名英国诗人拜伦之女,数学家,计算机程序创始人,建立了循环和子程序概念。她不仅是第一个女程序员,而且还是历史上公认的第一个程序员。为了纪念Ada, 微软亚洲研究院成立了Ada Workshop,用以助力心怀科技梦想的女生更好地留在计算机行业,并在不久的将来成为行业领导者。

betway必威官网手机版 40输出结果

孙剑:云上不用考虑计算量和内存访问、模型大小的一些问题,或者说是有很松的边界,要追求的是精度问题。在端上,比如说在手机上,它的计算量、内存访问模式和要求的模型大小都是不一样的。今天因为设计网络结构还是人工的一个事情,所以在云上设计的模型肯定在端上不是最优的设计,所以需要在端上面设计才能得到更好的效果。

8、机器学习历史上著名算法SVM,从算法提出到算法标准化,经历了多少年迭代?

损失函数

计算神经网络的推测结果与图片真实标签的差距,构造损失函数,训练的目标就是将找到损失函数的最小值。

包括在芯片上也是一样,不光要调结构,而是内部的网络表示都要采取低精度化的表示,其实这也是神经网络很神奇的特性,因为我们一般来说用32位浮点数表示里面所有的信号,但它(神经网络)其实很稳健,不用32位,用几个比特也能够很好地把这个信息流给传播了。

A、10年

梯度下降

将损失函数对各种权重、卷积核参数求导,慢慢优化参数,找到损失函数的最小值。

betway必威官网手机版 41梯度下降

因为我相信人真正的神经系统里面也不会用32位浮点数表示信号,所以,第一就要设计这样的算法来适合现有的硬件;第二,其实芯片是演化非常快的一个行业,设计芯片要考虑这个特性,用低精度来设计芯片,这样就能够做的非常好。我相信在很多设备上这样的芯片都会普及,以至于在云上的一些计算可以围绕这个芯片来做,今天这个发展非常快,这远远不是摩尔定律能够框起来的,大概几个月计算量翻一倍,功耗还不变或者说计算量不变,功耗降一半,这个范围非常宽。

B、20年

随机梯度下降

在减小损失函数的过程中,采用步步为营的方法,单个样本单个样本输入进行优化,而不是将全部样本计算之后再统一优化。虽然个别样本会出偏差,但随着样本数量增加,仍旧能够逐渐逼近损失函数最小值。

betway必威官网手机版 42随机梯度下降

前途是光明的,道路是曲折的。——《毛泽东选集》《关于重庆谈判》

LeNet-5模型是Yann LeCun教授于1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。LeNet-5模型一共有7层。

当年美国大多数银行就是用它来识别支票上面的手写数字的,它是早期卷积神经网络中最有代表性的实验系统之一。Yann LeCun教授不是中国人,是法国人,在上世纪80年代读博期间提出“人工神经网络”,但后来该理论一度被认为过时,他本人甚至被拒绝参加学术会议。LenNet-5共有7层,每层都包含不同数量的训练参数。

betway必威官网手机版 43LeNet-5

李飞飞 imagenet 2009年开始成立ImageNet网站,采用众包模式,鼓励全世界志愿者上传、筛选、标注、整理图片数据。并每年组织ImageNet图像分类竞赛。

2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计,官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%。AlexNet引爆了整个深度学习领域,更多学者开始研究卷积神经网络。

betway必威官网手机版 44AlexNet:2012年ImageNet竞赛冠军betway必威官网手机版 45GoogleNet

牛津大学的VGG模型是2014年ILSVRC竞赛的第二名,第一名是GoogLeNet。但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。而且,从图像中提取CNN特征,VGG模型是首选算法。它的缺点在于,参数量有140M之多,需要更大的存储空间。但是这个模型很有研究价值。

betway必威官网手机版 46VGGNet

ResNet在2015年ImageNet比赛分类任务中获得第一名,在图像分类方面已超过人眼。ResNet共有152层,但它不仅仅靠深度取胜,而是通过残差学习的方法训练模型,通过“跨层抄近道”的方法减少参数数量,简单而实用。衍生出ResNet50和ResNet101旁支,Alpha Zero(只训练8个小时就打败了AlphaGo的下棋机器)也使用了ResNet。

ResNet的作者何恺明是2003年广东省理科高考状元,本科毕业于清华大学,博士毕业于香港中文大学,曾在微软亚洲研究院孙剑领导的研究组实习。何恺明在图像去雾领域也成果颇丰。

betway必威官网手机版 47ResNetbetway必威官网手机版 48ResNetbetway必威官网手机版 49各种冠军神经网路图像分类成功率

top1和top5是什么?

每次识别图片,模型都会给出它认为最像的前五个结果。top1指的是模型认为最像的确实是真实答案的成功率。top5指的是模型认为最像的前五个里有真实答案的成功率。

betway必威官网手机版 50ImageNet竞赛错误率逐年下降betway必威官网手机版 51ImageNet竞赛错误率逐年下降

LeCun教授、李飞飞、Hinton、Alex、何恺明都是人工智能领域的泰山北斗,

官方主页

betway必威官网手机版 52微软年龄测试工具

官方网站

betway必威官网手机版 53微软captionbot

B站视频:用微软Custom Version识别水果

betway必威官网手机版 54快速测试

face_recognition项目中文介绍

[图片上传失败...(image-427316-1541841048619)]

betway必威官网手机版 55识别面部关键点

子豪兄教你在树莓派微型电脑上安装OpenCV

betway必威官网手机版 56betway必威官网手机版 57连接树莓派摄像头Picamera

官方主页:

Video Indexer是非常强大的视频和音频处理工具,用户只需上传视频或音频,即可得到关键词分析、时间线字幕、视频中出现的名人及其讲话时段、情绪分析、关键帧以及带字幕和字幕翻译的视频。

betway必威官网手机版 58视频样本betway必威官网手机版 59字幕betway必威官网手机版 60翻译

本文配套B站视频:三分钟走进卷积神经网络

本文配套B站视频:大白话讲解卷积神经网络工作原理

用微软Custom Version识别水果:三分钟开发人工智能小应用

三维可视化卷积神经网络

视频:李飞飞TED演讲: 我们怎么教计算机理解图片?

视频:How Convolutional Neural Networks work

ImageNet图片网站

卷积神经网络中的池化方法总结

大话CNN经典模型:VGGNet

一个时代的终结:ImageNet 竞赛 2017 是最后一届

ResNet解析

零基础入门深度学习 - 卷积神经网络

微软开源人工智能工具和深度学习框架

学堂在线慕课:微软人工智能-深度学习框架和工具

用Microsoft Custom Vision技术识别点东西吧

微软亚洲研究院

微软亚洲研究院20年20人

作者介绍:

张子豪,同济大学在读研究生。微信公众号 人工智能小技巧 运营者。致力于用人类能听懂的语言向大众科普人工智能前沿科技。目前正在制作《说人话的人工智能视频教程》、《零基础入门树莓派趣味编程》等视频教程。西南地区人工智能爱好者高校联盟联合创始人,重庆大学人工智能协会联合创始人。充满好奇的终身学习者、崇尚自由的开源社区贡献者、乐于向零基础分享经验的引路人、口才还不错的程序员。

说人话的零基础深度学习、数据科学视频教程、树莓派趣味开发视频教程等你来看!

微信公众号:人工智能小技巧

知乎专栏:人工智能小技巧

Github代码仓库:TommyZihao

个人主页:www.python666.org

同济大学开源软件协会 同济大学微软学生俱乐部西南人工智能爱好者联盟重庆大学人工智能协会

betway必威官网手机版 61休息一下

《知识分子》:设计各种各样的网络,看起来就像是艺术,你是基于什么去设计一个算法的?

C、30年

孙剑:别的科学都没有Science这个名词,而Computer Science,计算机科学加了一个Science,其实计算机科学里面大多数算法都是设计出来的,它跟物理、生物实验做出来的发现是不太一样的。我们深度学习有点像计算机科学这个方式,像排序算法是怎么设计出来的,有各种各样的排序算法,不是做实验做出来的。

D、40年

另一方面,它(神经网络)跟那些纯算法还不太一样,它和数据相关,跟数据相关的话,跟平台也相关,所以核心是说,对要做的一些问题要有非常深入的理解,理解有很多细节,理解整个网络在不同的情况下会怎么样,然后从小出发,抓住小的点,把小的点做大,慢慢就可以设计好。

1963-1993年。在机器学习中,Support Vector Machine(SVM)是基于统计学习理论的一种监督学习模型。最原始的SVM算法于1963年由Vladimir N. Vapnik和Alexey Ya. Chervonenkis发明。1992年,Bernhard E. Boser, Isabelle M. Guyon以及Vladimir N. Vapnik提出了一种非线性分类方法。现行的SVM标准于1993年由Corinna Cortes 和 Vapnik提出。

《知识分子》:你对微软的研究氛围体会如何?

9、以下机器学习领域的著名人物中哪位获得过图灵奖?

孙剑:鼓励基础研究。深度学习中有一个梯度下降算法、反传算法,最后监督信号决定了这个系统会是什么样子的。我觉得在任何一个组织的话,你希望这个组织做什么,不做什么,就相当于一个监督信号。训练一个分类器,可以接受正样本、负样本,这个组织就会像深度学习一样,自动地去反传、监督这个信号,形成它的特色。微软研究院很鼓励基础创新,鼓励对最前沿问题长期如一日的这么做,这样才可能有新的突破诞生。

A、Leslie G. Valiant

《知识分子》:在人工智能的科研和教育方面,旷视和大学、科研机构有合作吗?

B、Michael I. Jordan

孙剑:我们在南京成立了研究院,与南京大学有合作,我们和西安交大人机所、上海科技大学成立了联合实验室,和权龙老师在香港科技大学也成立了一个实验室,因为想实现互补——3D认知方面和图像识别方面是要结合在一起的。我们接下来还会找和我们相互补的,不管学校也好,或者研究机构也好,来做这样的合作。

C、Vladimir Vapnik

《知识分子》:年轻人都来学AI,你有什么样的经验可以给到他们?

C、Robert Schapire

孙剑:如果看长远一些,机器学习会长期产生更大的作用。今天虽然说人工智能,但其实大多数是机器学习的基础知识,包括如何来用统计思考问题的方法,可能很多做事情的方式都是通过这种方式做的。学习这些,我觉得长期来看都是非常有好处的。

Leslie Gabriel Valiant是一位英国计算机科学家,于2010年获得图灵奖。图灵奖(A.M. Turing Award),由美国计算机协会(ACM)于1966年设立,又叫“A.M. 图灵奖”,专门奖励那些对计算机事业作出重要贡献的个人。其名称取自计算机科学的先驱、英国科学家艾伦·麦席森·图灵(Alan M. Turing)

Power Human with AI.

10、著名的图像处理ImageNet挑战赛始于哪一年?

www.megvii.com返回搜狐,查看更多

A、2009

责任编辑:

B、2010

C、2011

D、2012

ImageNet大规模视觉识别挑战(ILSVRC)是一个竞赛,也是计算机视觉乃至整个人工智能发展史上的里程碑,研究团队在给定的数据集上对其算法进行评估,并在多个视觉识别任务中争取更高的准确性。2009年,普林斯顿大学计算机系研究人员在CVPR上首次提出该数据集;2010年,第一届ImageNet挑战赛开始;2017年7月,计算机视觉顶会CVPR 2017同期举行的Workshop——“超越 ILSVRC”(Beyond ImageNet Large Scale Visual Recogition Challenge)宣布IamgeNet大规模视觉识别挑战赛将于 2017 年正式结束,此后将专注于目前尚未解决的问题及以后发展方向。

11、人工智能之父艾伦.图灵在二战时期破解的密码机名称是?

A、Enigma

B、Sigaba

C、Typex

D、Siemens

艾伦·图灵是在二战中帮助英国破解Enigma密码的最大功臣。Enigma是一系列相似的转子机械的统称,它是一个由德国人亚瑟·斯雪比尤斯发明的密码机。Enigma在1920年代早期开始被用于商业,也被一些国家的军队与政府采用过,在这些国家中,最著名的是第二次世界大战时的纳粹德国。

12、AlphaGo Zero比AlphaGo多了以下哪项技术的支持?

A、残差神经网络

B、生成式对抗网络

C、并行计算

D、增强学习

2017年10月19日,谷歌下属公司DeepMind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋。AlphaGo Zero在DNN网络结构上吸收了最新进展,采用了ResNet网络(深度残差网络)中的Residual结构作为基础模块。ResNet使用的Residual结构比GoogLeNet使用的Inception结构在达到相同预测精度条件下的运行速度更快。深层残差网络(deep residual networks)系统在微软亚洲研究院成功诞生,它实现了惊人的152层,比以往世界范围内的任何系统都深5倍以上。它还使用了一个全新的“残差学习”原则来指导神经网络结构的设计,残差学习最重要的突破在于重构了学习的过程,并重新定向了深层神经网络中的信息流。残差学习很好地解决了此前深层神经网络层级与准确度之间的矛盾。2015年12月10日,微软亚洲研究院视觉计算组的研究员们凭借深层神经网络技术的最新突破,以绝对优势获得ImageNet计算机视觉识别挑战赛图像分类、图像定位以及图像检测全部三个主要项目的冠军。

本文由betway必威官网手机版发布于科学知识,转载请注明出处:betway必威官网手机版旷视科技首席科学家孙剑,

关键词:

上一篇:创出三个第三次,实行十三号卫星

下一篇:没有了