温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

中国自动化学会副理事长陈俊龙:AI学术前沿与趋势

发布时间:2020-08-11 19:39:04 来源:ITPUB博客 阅读:243 作者:AIBigbull2050 栏目:互联网科技
2019-11-25 10:09:09

  人工智能作为一项赋能技术,如今已在多个行业领域逐步落地应用,不过现阶段,人工智能在某些方面仍然处于技术提升期。本文将聚焦于人工智能的学术研究方面,简要探讨一下AI学术前沿和技术发展趋势。

中国自动化学会副理事长陈俊龙:AI学术前沿与趋势

中国自动化学会副理事长陈俊龙

   人工智能热门技术研究课题

  当前人工智能在诸多行业领域已经实现了广泛应用,但在热门技术方面来看,安全性等方面依然存在一定缺陷。 用简单的“对抗性补丁”(adversarial patch)可以使得人脸识别在可靠性、安全性等失效。这也让AI技术研究需要更加注重 人工智能 “攻”和“防”的课题,如何确保AI算法的高安全性、可靠性还有它的鲁棒性,人工智能算法在安全方面 “攻”和“防”当前也是一个相当热门的技术研究方向。

  另外一个研究课题是 生成对抗网络(GAN, Generative Adversarial Networks ),生成对抗网络有非常多的应用,典型的应用在“图像生成”和“数据增强”等方面,比如在安防领域人脸识别图像的生成。生成对抗网络如今也逐渐被应用在其他的一些应用领域,如生命科学中的材料设计,还有食品、药物的设计,这些也成为人工智能技术新的研究方向。

   边缘计算同样也是当下人工智能技术研究的重点之一。随着物联网时代的到来,越来越多的数据在边缘端产生,边缘计算由此成为显著趋势。现阶段边缘计算有多种计算方式决定什么应该放在边缘端。目前人工智能的算法在主流方面是把算法放在云端,把编程中推理的部分放在边缘端,这样可以保证数据运算和训练这一类需要大功率运算的过程在云端进行,而推理的过程则在边缘端发生。不过这种模式可能会导致边缘端的算法不够智能,如何在边缘端提升算法的智能程度是一个重要的研究方向。

   宽度学习网络的诞生,被认为是可以很好地替代原本的深度学习网络,它基于将输入随机映射成为扩充节点作为输入的思想而设计(依据早期随机向量函数链接神经网络,random vector functional-link neural network)。它可以非常快速的算出正确的映射,在数据的增量部分也可以实时的学习。 根据大量的测试结果显示,在边缘计算过程中,宽度学习的实时性应用效果非常不错。

   人工智能在理论上的瓶颈问题

  谭铁牛院士曾表示现阶段的人工智能依然存在很大的局限性,用四句话概括便是:有智能没智慧,有智商没情商,会计算不会“算计”,有专才无通才。具体解释一下在理论上局限的瓶颈问题主要包括:

  (1) 数据瓶颈:深度学习需要大量的数据;(2) 泛化瓶颈:这是模式识别、计算机视觉、人工智能方法面临的一个共同的问题,现有方法在一些实际问题中仍无法取得理想的泛化性能,或者训练好的模型用在变化的环境或领域其泛化性能明显下降;(3) 能耗瓶颈:人的大脑尽管是一个通用的人工智能系统但是能耗很低(只有20瓦),但现有计算机上实现的人工智能系统能耗很高;(4) 语义鸿沟瓶颈:目前语言服务大多为简单查询,不涉及语义推理问题,缺乏真正的语言理解能力,比如一些有歧义的自然语言句子,人很容易根据上下文或常识理解其真正含义,计算机却很难理解;(5) 可解释性瓶颈:现有人工智能系统都是知其然而不知其所以然,其过于依赖训练数据,缺乏深层次数据语义挖掘。因此,可解释性非常重要,人工智能不仅要知其然还要知其所以然,知其然只是浅层智能,知其所以然才叫深层智能;(6) 可靠性瓶颈:现有人工智能系统可靠性较差,有些错误识别结果会带来致命后果,尤其在自动驾驶这样的领域。

   人工智能值得关注的技术研究方向

  为了更好地破除上述人工智能技术研究的瓶颈问题,在AI学术研究领域,一些新的技术发展趋势和研究方向也值得关注,包括:

  (1) 从专用人工智能到通用人工智能是大势所趋,一些科技巨头包括国家机构都在布局通用人工智能的研究,微软成立人工智能实验室以挑战通用人工智能为主要目标;

  (2) 可解释的人工智能系统备受关注,也将成为突破统计学习瓶颈问题的一个重要方向。DARPA的报告:第一个波次是基于规则的,例如以专家系统为代表的系列方法和技术;第二个波次就是当前以大数据驱动为代表的统计学习;同时,他们认为第三个波次很可能是可解释的人工智能,就是人工智能要知其然还要知其所以然,以此可见人工智能可解释性的重要意义;

  (3) 小样本甚至零样本学习成为提高人工智能系统泛化能力的一个重要方向。最近提出的生成对抗网络、胶囊网络、生成模型等都是为了降低对训练数据的需求,提高人工智能系统泛化能力的有益尝试;

  (4) 非深度神经网络计算模型成为机器学习创新的一个重要方向。当前深度学习理论基础薄弱、模型结构单一、资源消耗过高、数据依赖性强,以非神经网络、资源节约型机器学习模型有望成为下一个突破口;

  (5) 脑科学与人工智能深度融合、协同发展、相得益彰,IBM的TrueNorth芯片、美国DARPA的MICRONs研究项目以及最近Science和Nature杂志上发表的一些受脑启发的智能计算模型都是这方面的典型例子。

   宽度学习(BLS)网络的研究和应用

  除了上述这几大AI学术研究要点之外,还有宽度学习(BLS)网络也值得重点关注。宽度学习(BLS)自2018年由我们(陈俊龙教授及其团队)首次在学术界提出,便迅速在科研机构(中科院)、国内知名高校及企业展开了较为广泛的研究与应用。

  虽然深度学习网络非常强大,但大多数网络都被极度耗时的训练过程所困扰。首先深度网络的结构复杂并且涉及到大量的超参数。另外,这种复杂性使得在理论上分析深层结构变得极其困难。另一方面,为了在应用中获得更高的精度,深度模型不得不持续地增加网络层数或者调整参数个数。为了克服这些问题, 宽度学习系统提供了一种深度学习网络的替代方法,同时,如果网络需要扩展,模型可以通过增量学习高效重建。

  宽度学习(BLS)在设计思路方面,首先,利用输入数据映射的特征作为网络的「特征节点」;其次,映射的特征被增强为随机生成权重的「增强节点」;最后,所有映射的特征和增强节点直接连接到输出端,对应的输出系数可以通过快递的伪逆得出(或者梯度下降方法)。BLS 最重要的特点在于它的单隐层结构,具有两个重要的优势,一个是「横向扩展」,另一个则为「增量学习」,与深度神经网络不同之处在于,BLS 不采用深度神经网络的结构,而是基于单隐层神经网络构建,可以用「易懂的数学推导来做增量学习」。

  直白来讲, 深度神经网络学习架构是在结构固定以后才开始学习,此后学习期间如果出现不准确情况,就要重新设计网络、再学习一次。而宽度学习则是设计好网络后,当面临学习不准确的情况,可以随时以横向的方式进行增量扩充,即通过增加神经元,以提高准确度。这种增量学习的模式也适用在数据实时的进入已训练成的神经网络模型当中,而不用重新对整个收集的数据再重新训练。

  在安防领域,宽度学习网络的应用主要表现在两个方面:一是 提升人工智能识别的可靠性。比如在人脸识别算法训练过程中,最好的数据当然是高清正脸无遮挡的干净人脸数据,但实际上测试推理过程中,很多的人脸数据并不完美,会出现被遮挡(墨镜、口罩)、模糊、非正脸角度的人脸照片。在做算法训练过程中,我们可以基于宽度学习网络架构,通过将干净人脸图片和缺陷人脸图片融合到一起做训练,甚至可以特意生成一些有缺陷的图片样本,由此来提高算法对缺陷图片的识别准确率,从而提升复杂场景下人脸识别算法的场景适应能力。二是 解决数据标注的问题,在人工智能算法训练过程中,数据的标注也非常重要,如果标注错误,那么不管算法有多精确,训练的结果也不会理想。通过宽度学习网络构建的算法模型,可以很好地解决算法标注错误的问题。

  通过研究团队的大量测试,可以看出宽度学习(BLS)以及它的各种变体和扩展结构具有良好的发展潜力,在实际应用中表现出其快速且高精度的优秀性能。目前宽度学习在很多技术领域都有展开应用,比如时间序列、高光谱分析、脑机信号分析、容错、基因鉴定与疾病检测、步态识别、3D打印以及智能交通等。随着人工智能技术研究的持续深入,宽度学习这种不需要深度结构的高效增量学习系统有望加速助推人工智能的发展。

https://www.toutiao.com/a6763060586705060359/

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI