文章详情
您所在位置:首页 > 学术交流 > 学术长安 华山论剑:“深度学习与大数据感知”国际研讨会专家观点分享

学术长安 华山论剑:“深度学习与大数据感知”国际研讨会专家观点分享

2017-06-20来源: 浏览次数:

在5月25-28日举办的2017“深度学习与大数据感知”国际研讨会暨第十八届学术周上,包括国家973项目首席科学家、长江学者、IEEE Fellow、国外高校Chair Professor、Distinguished Lecturer 等在内的33位国内外权威专家学者带来了他们在人工智能领域最前沿的研究成果, 45场学术报告精彩纷呈,华山论剑,学术争鸣,引爆多个当下的AI热点。本文根据学术周期间的现场速记进行整理归纳,将专家们提出的主要观点及报告内容再次呈现出来,供大家参考。

韩崇昭:基于脑认知机理的条件证据理论及其深度学习方法


在网络化系统对智能感知的需求方面,韩崇昭教授介绍,多平台协同作战战术信息系统,需要在武器协同数据链的支持下,将武器平台、传感器平台和指控单元进行有机地交联,完成目标探测与识别,目标跟踪与定位,目标协同精确打击与评估等功能,我国对网络化协同作战的重大需求是未来要具有“远离国土的三军协同作战能力”,“亟需研究满足远离国土超视距作战环境中武器协同作战战术信息处理的理论与方法”。

在基于脑认知机理的条件证据理论研究进展方面,韩崇昭教授指出:“人和动物的认知机理一直是认知科学和人工智能研究的重点,人类和动物大脑进行信息融合的机理研究仍然是一个广阔的领域,启发我们建立基于生物多模异构信息融合机制的多源异构信息融合方法,从而达到非结构化信息互补集成的目的。”另外,随机集理论是统一人工智能各个分支的一个有效的数学工具,Dempster-Shafer合成公式就是用随机集的观点来看就是随机集的交运算,如此晦涩的证据合成理论变得如此简单,“我们可以合理的期望利用随机集理论得到更为有用的结论。”研究异构信息融合时,韩崇昭教授认为必须具有两个基本观点:1、万能分类器是不存在的;2、对多分类器系统而言,影响分类结果好坏的主要因素在于其中各分类器的性能互补或相异性。韩崇昭教授提出了异构特征空间同化的方法:“异构特征空间的同化必须同化到相同的类集合上来,然后进行处理。”

在条件证据理论的深度学习方法及其应用方面,韩崇昭教授认为:“深度学习方法是一个新的方法,没有现成的东西借鉴,我们的思路是1、以实际问题为背景,建立适合条件证据理论的应用框架;2、以实际数据驱动推理过程,并以真实数据验证推理结果的合理性或正确性;3、修改条件证据理论,达到比较实用的程度。”

张青富:Recent Progress in MOEA/D


张青富教授在他报告中详尽的介绍了MOEA/D算法的基本思想与研究近况,张青富教授介绍:“MOEA/D的基本思想就是分解和合作,将一个多目标问题分解为多个子任务,合作的概念则来源于进化算法,例如由100个agent负责100个子任务,这100个子任务互相有关联,因为它们来源于同一个任务,所以100个agent可以互相合作来提高它们的算法效率。”这之中的关键问题有三点:一在于如何分解子问题,二在于讨论问题间的相关性,每个子问题用什么算法去解决,三是不同算法之间如何合作,对这三个问题的不同回答就会产生不同的算法框架。张青富教授的回答是“最简单的实现”,在分解这个问题上用加权法,而分解之中重要的是如何选择权重,最简单的选择方法是让所有的权重向量均匀的分布在一个单位单纯形上;确定子问题后,下一步是关注子问题的邻居关系,基本想法是如果权向量是接近的,那么两个临近子问题就应该拥有相似的目标函数,它们就很大概率有相似的最优解,对每一个子问题用最简单的遗传算法求解;不同算法的第一个合作方面是Mating selection,因每一个子问题只有一个解,故采用每一个agent从它的邻居借一个解来做cross over的方式,第二个合作叫Replacement,当每一个agent产生新解之后它会把这个新解送给它的邻居。张青富教授指出:“经典优化里的很多想法可以用来构造有效的进化算法,分解来自于数学规划,合作来自于进化算法,这样框架的好处是单目标的优化算法可以非常容易的变成多目标的算法,多目标的算法在这样的框架中也可以集成为一个高效的算法。MOEA/D研究还处在非常初级的阶段,还有很多可能的研究机会。”张青富教授也介绍了一些未来重要的研究课题如:为什么population是有用的、为什么合作是有用的?多目标优化问题中高维的PF不现实,EMO在求解这样的问题中起什么作用?怎样发展高效的、简单的pareto local searchEMO理论还非常薄弱,有待研究。多目标应用主要集中在传统的工程和设计领域,但在人工智能和大数据时代,更多的应用有待发掘。


孟德宇:如何度量张量的稀疏性


孟德宇教授介绍了度量张量的稀疏性的研究成果,他指出“张量是一个很宝贵的资源”,它有有更丰富的结构,更本质的信息,“我们的期望是仍然保持原来张量的结构,而不是退化为一个向量或一个矩阵,从而尽可能的挖掘其中的信息。”孟教授如是说。目前,张量稀疏性的研究成果还不多,现有的主要研究方法基本思想是将张量各个维度展开后各个矩阵获得的秩加权求和,最基本的加权就是平均,但孟德宇教授指出这个方法有三个问题:一是它没有物理含义,二是这种张量稀疏性的描述和矩阵的低秩性、向量的低秩性是不统一的,没办法在同一个框架、同一个物理意义下去理解,三是操作性问题,即λ怎么选。对张量进行低秩分解中有两种主流的分解方法,一种是Tucker分解,一种是CP分解,孟德宇教授介绍:“Tucker张量对于张量稀疏性的描述优势在于它可以体现出在每一个维度张量展开的矩阵的低秩性,问题在于中间的核张量里面的形态我们一无所知,更不知道里面有什么信息。”“CP张量的优势在于它的稀疏性的表达和矩阵及向量之前的基非常一致,理解起来非常直观,问题是不能体现每一个维度的低秩性。”针对上述张量研究中存在的问题,孟德宇教授经过研究给出了一种张量稀疏性的表达:

这种表达把Tucker分解和CP分解两种方式融合了起来,其物理含义非常清晰,即“要表达一个张量的时候到底需要多少Kronecker基,Kronecker基是对应张量空间里最简单的张量”,“一阶的稀疏性和二阶的稀疏性其实就是Kronecker基的描述”,从而解决了张量和矩阵、向量的描述不统一问题,“在此框架下可以导出一个非常自然的自适应加权方案”则解决了λ怎么选的问题。孟德宇教授在此基础上做了三个应用模型:Tensor recovery mode、lTensor completion model和Tensor robust PCA model,并将这三个模型分别应用到了高光谱图像去噪、高光谱图像填充以及背景提取的问题中。


潘泉:变分贝叶斯联合优化及应用


潘泉教授基于天波超级雷达的应用及战略预警系统要求的背景下,在信息融合领域做了多年的研究,他指出传统信息融合序贯处理模式的主要问题有三方面:“单一方法只能解决某一类问题,无法处理更复杂的情况”、“采用算法序贯‘拼接’处理复杂问题,会造成误差的累积传播”、“处理结构开环,没有利用信息的闭环反馈”。现代雷达发展趋势是认知化、软件化、网络化,这个趋势提出了信息处理与融合必须考虑具有反馈、联合处理的一体化架构,潘泉教授介绍了已经出现的一系列联合的概念和方法,如TBD、JCE、JAE、JTC,他还进一步提出思考:“我们能不能考虑一个新的信息处理的方法,重新构造一个信息处理的架构,打破过去信号处理点迹、数据、估计、识别这样的一个藩篱,我觉得这个时代应该到来了,未来应该没有信号处理、数据处理之分,它们应该都是软件定义,它们之间应该是高度综合融合的,现在的问题是有没有好的算法能把它们放到一起来考虑,这是一个很大的挑战。”

目前,天波超视距雷达目标跟踪面临的困难有:目标来源的不确定性;传播模式的不确定性;电离层虚高的不确定性;信息获取能力不足;系统存在电离层环境与目标特性深度融合。对此,潘泉教授强调:“如果采用序贯方式做,实现是实现了,但是性能总还有提升的空间,还存在许多风险和误差,雷达层传感器和电离层传感器必须要联合”。

潘泉教授在变分贝叶斯框架下做了VB-JDT算法,算法提供了目标起始、跟踪、维持全套解决方案,这是目前该领域国际上第一个完整全套VB做的算法,实现多路径量测检测,跟踪层的分层融合,闭环迭代的处理结构,有效解决耦合问题,多项式的计算复杂度,能避免组合爆炸问题,具有迭代收敛性保证以及估计性能下确界。在对算法的各种性能指标都做分析,在不同信噪比、不同量测精度情况下做了对比之后,证明此算法突破了在估计与辨识耦合下国际上传统序贯方法的处理局限,显著改善了OTHR目标航迹连续性,显著提升了飞机、舰船目标的监测跟踪性能,同源断裂航迹判断准确率大于70%,跟踪距离精度提升了近50%。展望未来,潘泉教授表示:“这个方向已经比我们想象的走得更远,现在已经把深度学习把智能的方法直接引入贝叶斯的整个框架中间来,联合估计与辨识已经成为了现代信息融合的解决思路,现在大家拓展的是把变分和大数据、深度学习结合在一块,现在已经有文章在干这个!将来南海识别区天波雷达会成为主要的装备之一,这也将是我们的主要工作。”


杜培军:Scene Representation and Classification from Remote Sensing Images Based on Deep Learning


遥感影像的研究通常是面对像元的,针对城市遥感中地学应用的需求,杜培军教授指出“但是地学上远远不能只考虑像素,要考虑领域尺度信息。从应用来说,则是考虑怎么样综合多元多分辨率的各种数据,为整个城市的扩展、生态环境演变、城市规划管理、建设智慧城市等提供支持。”对于城市的管理需要归纳出商业用地、住宅用地等等功能区,对遥感图像的分析也因此要求往场景分类上发展,杜培军教授说:“基于亚像元-像元-对象的遥感图像分类已经基本可以满足地物覆盖信息的提取,但城市研究中需要更加高层次的空间语义信息,因此目前基于遥感数据可提取的信息与实际需要之间存在信息不匹配问题,传统的方法很难做,我们就在深度学习中寻求更好的方法。”遥感图像场景语义理解的关键是场景图像特征提取和表达,根据所提取特征的层次,又将其分为基于低级特征的场景内容表达,基于中级特征的场景内容表达和基于深度学习的场景内容表达,潘泉教授应用深度学习的方法,改进融合模型,保持多模型特征之间的差异性,提出监督-非监督特征融合的方法,对于深度学习在遥感影像中的应用,他指出“从地学角度来说,希望遥感影像解译是具有地学语义的,深度学习在这其中的应用有很好的效果,但适应性还是存在问题需要进一步研究解决,要充分利用多层次、多模型特征来对场景图像内容进行表达,围绕城市地区的应用,还需要为场景尺度的选择、场景边界的精细化等问题进一步研究。目前,绝大多数遥感影像解译的文章没有用到光谱特征,有地学解释意义的信息加入进来应该会有更好的效果。”


张军:大数据、云计算、物联网:计算智能的研究前沿与应用


张军教授首先分享了他对大数据的思考,他从计算机的发展历程角度看,早期的计算机科学是算法的科学,到了并行计算时代是算法互动的科学,而云计算时代是算法、人、物互动的科学,计算机科学和电子工程、自动控制等等都结合到了一起变成了信息科学,I/O设备变成了物联网,计算模式变成了人工智能、超级计算和云计算:“大数据是物联网与新型计算模式发展的产物”,张军教授也指出:“大数据、云计算和物联网的核心是人工智能”。计算智能包括了模糊逻辑、神经网络和演化计算,张军教授认为:“演化计算是目前数学证明最薄弱的,是最不成熟的”,演化计算已成为人工智能的学术前沿。


刘静:What Can Evolutionary Algorithms Do on Complex Networks


刘静教授首先对复杂网络和进化算法进行了简单介绍,复杂网络在现实中广泛存在,它揭示相应的复杂系统的特征,刘静教授指出复杂网络的特性是:“任何一个网络中,无论是生物网络、社会网络还是人际交互网络,都会发现只有很少数的点的连接度是非常大的”。用进化算法去解决问题时,刘静教授认为:“只要定义了:1、种群、个体如何表征,2、要解决的目标是什么,找到什么样的解,3、进化算子如何设计,4、怎样选择得到的解,定义了这四个元素就定义了算法。”在复杂网络的问题上,刘静教授把进化算法解决的问题分为两部分,一部分是从复杂网络中去学习,一部分是把学习出来的知识反作用于网络上。其中第一部分做的最多的是社团检测问题,社团检测问题“实际上是对已有网络结构如何划分网络的节点或边,使得这种划分能满足我们的需求。”刘静教授介绍,用单目标、多目标的进化算法来解决社团检测问题,可以从方法去研究,可以从社团的类型去研究,也可以从网络的类型去研究。第二部分相应的是设计鲁棒的网络,研究网络鲁棒性考虑两个因素,一个是网络保持功能的能力,一个是网络承受其点或边失败或波动的能力,刘静教授指出:“结构的优化远比社团检测要难,对点攻击要鲁棒,对边攻击要鲁棒,就有多目标的用武之处。”


孙涛:大数据与AI时代


孙涛博士首先介绍了大数据及华为在大数据服务方面的进展,他指出:“大数据分为两大类,一类是人产生的数据,另外很大一部分是来自于工业数据,随着物联网的发展,尤其无人驾驶现在一天能产生几十个T的数据,机器产生的数据将会是未来另外一个具有挑战的问题。”华为公司现有图计算,实时服务,DIS服务等,瞄准大数据的4V特征,挖掘数据金矿,孙涛博士介绍,华为拥有多种数据洞察方式,更快的分布式查询服务以及更强的流处理服务。

大数据从11年开始兴起,发展至今已经不再是新兴技术,而是成熟的技术并得到应用,孙涛博士说:“取而代之的是机器学习、语音识别等AI的技术,现在是深度学习为代表的技术在引领AI趋势,发展方向包括语音识别、图像分类和自然语言处理,我们比较关注的也是这三个方向,因为它们正好代表了人类感知的延伸”,目前,孙涛博士提到的这三个受关注的方向的发展情况是“语音识别作为未来人机交互的方式比较受到各大商业公司的关注;自然语言处理是一个公开问题,大家一直没有解决掉,华为在翻译这块做得还可以;图像识别几个大的应用,一个是图像分类,一个是人类识别,近端人类识别效果已经比较好了,支付宝上的人脸识别安全性已经超过指纹识别,已经得到金融安防的可靠认证,但远端的人脸识别准确率还不高。”

芯片是AI发展的另外一个重要支撑,训练阶段对芯片的需求是大计算+大存储+大带宽,推理侧的需求是低功耗+有限空间+实时处理。孙涛博士提出未来芯片要解决的一个关键问题是:“怎样构建像人脑一样高效、高能耗的芯片,当前芯片和人脑的消耗差了六个量级,就是10的6次方,现有技术大概能提升3个量级,但还是有3个量级的差距。”


金耀初:数据驱动的进化优化


报告开始金教授就指出他多次在公开场合提出“高维多目标的优化若是利用传统的两三维目标优化算法来做是有很大局限性和问题的”,同时指出现如今有很多学者盲目的使用进化算法,但是这是不对的,一定要根据自己所需要解决的问题来判断进化计算是否适用,金教授认为“进化计算的思想非常适用于多目标优化的问题”,在报告里金教授对在大数据环境下的进化计算方法的设计所面临的挑战提出了自己的观点,那就是“如何减少算法的计算量是在大数据环境下迫切需要解决的问题”。此外,金教授还提出了另一种在小数据环境下的挑战,就是如何在样本数据非常稀少的情况下设计进化算法。


孙富春:面向机器人灵巧操作的认知传感与大数据处理


孙富春教授在报告开始就说“机器人是自动化的最后一公里,灵巧操作是最后的一厘米,那么认知传感就是最后的一毫米”,所以可见认知传感在机器人的灵巧操作上非常重要。孙老师指出“新一代机器人一定是基于认知传感技术的”,比如人手的触觉在脑区究竟如何表达,之后各个脑区怎样合作进行融合,融合的信息怎样去实现已操作目标和环境的认知,最后如何利用人的认知本能再加上经验进行动作的预测和运动的控制。同时提出“如今能为我们进行服务的技术有云技术,大数据处理技术,类脑认知技术,以及先进的分布式的控制技术”。报告最后,孙教授就下一代机器人所面临的挑战进行了说明,其中包括机器人认知的体系结构要像人脑一样并行;而且能够实现对不同形态信息的表征,特别是跨模态的信息表征和处理;另外还要有像人一样的认知本质。


焦李成:深度学习影像感知与解译


报告开始,焦李成教授说道“提及深度学习,大部分人首先想到的是像吴恩达、于凯这样的红人,首要的反应就是深度很火,且无所不能,无所不在,但是越是此时我们越是要清醒,其实神经网络的发展也代表了人工智能发展的一个侧面,也代表了机器学习的一个侧面”。之后焦李成教授介绍了一大批国内外神经网络学科的前辈科学家,并强调“现如今的深度学习在商业领域之所以如此受到推崇,是由于那些前辈科学家的贡献为其奠定了坚实的理论基础”。焦李成教授在报告中指出“和当初的神经网络相比,现在的深度神经网络理论进展并不大,但是由于当前大数据对象的需要,又有计算机硬件软件技术的发展,才促成了现在的神经网络可以加很多层可以做很多事。”报告最后,焦李成教授对我们年轻一代的研究者提出了希望,“这是大数据和深度学时的时代,但也是年轻人的时代,解决智能人机交互,智能自主学习,智能推理以及智能自动驾驶是未来我们需要解决的深度学习难题”


杨少毅:Robot到AI


杨少毅认为:“人工智能的发展趋势是社会进步的必然选择,大数据时代的来临,将加速人工智能的发展。”杨少毅指出:“像人一样,人工智能的发展也需要学习,这些知识和经验是以海量的数据为支撑,这样,人工智能的巨大潜力才可能被逐步释放。如果把人工智能比作火箭,大数据就是燃料。”


张向荣:基于深度学习的遥感影像解译


张向荣教授应用深度学习的方法在路径提取和高光谱感知图像分类方面做了研究工作,全卷积网络FCN拥有杰出的图像分割能力,张向荣教授介绍采用FCN进行路径提取,在FCN4s模型的基础上加入权值-损失函数,解决了样本正反例不平衡的问题。此外,她还基于GAN做了完善改进应用于路径提取。在高光谱感知图像分类中,张向荣教授则使用了RNN、LSTM,都取得了良好的成果。


史玉回:头脑风暴优化算法


史玉回教授在报告开始时指出“现如今的粒子群算法在很大程度上都是基于低等动物的群体智能行为提出的,而人类作为高等动物会很聪明,那么一群人的群体行为是否可以抽象出来形成优化算法?”针对这一疑问,史老师提出了头脑风暴优化算法。并认为“当想要仿真问题拥有者在一群想法中挑选其认为好的想法这类问题时,由于头脑风暴优化算法和维数无关,所以很适用大规模的优化问题”。报告最后,史玉回教授提出“群体智能的主要问题是优化,需要把所有的问题描述成一个优化问题,如何把许多目标优化问题分解成多个多目标优化问题并可以并行化运行,是头脑风暴的挑战”。


杜兰:卷积神经网络及其在SAR图像解译中的应用


杜兰教授在报告中认为“深度学习在近年来的发展非常快,很多人工智能的应用领域都有用到深度学习的方法,另外学术上也有很多关于深度学习的研讨会,甚至一些应用领域的期刊都有发表深度学习的专刊,但是深度神经网络学习却并不是一个新的概念。它的出现和我们计算量的提升以及大数据的背景是分不开的。”


邬刚:基于FPGA的深度学习加速方案


邬总在报告开始就申明“我的报告和别的专家的思路不太一样,是从硬件的角度来看在机器学习上该怎么做,更多的是从工程化的角度来做硬件加速。”邬总指出“FPGA是用异构的计算来提高计算能力,而计算能力决定算法演进的速度。FPGA最大的优势就是通过互连的方法,通过高性能计算网络接口的方法,可以实现更高性能的训练,因此,把学习算法载入到硬件芯片FPGA中,是使算法运行加速从而满足实际应用的必然手段” 与此同时,邬总也指出了“BP算法的反向传播是影响硬件最大的瓶颈,这是因为反向传播会造成巨大的串行,此外,算法的训练模型也有待改进”,所以报告最后,邬总呼吁学术界,希望可以改变这种算法的反向传播,尽量用正向计算,以及压缩训练模型找到最佳架构,使得算法和硬件可以更好的匹配。


侯彪:高分辨率SAR图像目标检测


侯彪教授介绍,随着SAR图像分辨率的升高,车辆目标已有明显变化,不再是一个或少数几个点,而是一片区域,SAR图像分辨率的升高带来了更多细节信息,这对处理速度造成了挑战,对这些信息的系数花表示成为了重要的问题。传统CFAR方法在中低分辨率的SAR图像目标检测中效果较好,但在高分辨SAR图像上表现不佳,针对前述种种问题,侯彪教授提出了分层字典学习方法,分层的依据由对高分辨SAR图像进行初分类的结果得到。


姚新:Online Ensemble Learning of Class Imbalance Data


姚新教授认为“分类问题中类别的分布是不平衡的”,例如工程中的故障诊断,大部分数据是正常的,只有小部分数据是不正常的,这就是不平衡,针对不平衡分类的学习,有没有什么办法能把学小类的性能提高,同时又不损失大类的学习性能呢?姚新教授给出了他的想法——AdaBoost.NC算法,姚新教授说:“在AdaBoost算法的基础上,加入数据间的多样性”、“考虑样本点是大类出来的还是小类出来的,如果是小类出来的,学习它的机会就给多一点,大类的就少一点;考虑数据的相似性,相似的就少学,就将这个思想做成算法。”新教授也提出了新问题:online class imbalance learning,他将在线学习定义为“处理数据流的学习”,此时不能认为数据的概率分布是始终一样的,需要考虑时间漂移,且在线情况下大类、小类的区分也不是固定的。对此,姚新教授提出了Online Bagging +Re-sampling算法,其主要思想是对小类Over-sampling,对大类Under-sampling。姚新教授最后提出的一个方法是多目标的方法,姚新教授说“多类的分类只看精确度的话老被大类拽着走,把每一个单个的class都作为目标,无论是大类小类当成同等的目标,就不会产生大类控制小类的情况。”


Hisao  Ishibuchi:Current Hot Topics in Many-Objective Optimization


Evolutionary many-objective optimization is an active research area in the field of evolutionary computation. A large number of new algorithms as well as a variety of modifications of existing algorithms have been proposed for multi-objective optimization problems with four or more objectives. In this presentation, we focus our attention on current hot topics in evolutionary many-objective optimization. First we will look at some attempts to prepare new test problems and a new test suite of existing test problem. The basic idea is that we need a variety of many-objective test problems. Next we will discuss the population size specification for fair performance comparison of many-objective problems: There may be at least four ideas: The same population size for all algorithms, selection of the same number of solutions from the final population, selection of the same number of solutions from the examined solutions, use of all the examined solutions. Then we will point out the importance of an appropriate specification of a hypervolume reference point for fair performance comparison through the discussions on the optimal distribution of solutions for hypervolume maximization. We also discuss the optimal distribution of solutions for IGD minimization.


刘宏:Online Growing Neural Gas for Anomaly Detection in Changing Surveillance Scenes


刘宏教授开场即表示,他以及他的团队的使命始终是让机器人更加“耳聪目明”,即机器人的视、听、思维,致力于做机器人“脖子以上的工作”。刘宏教授认为做机器人要注重三个结合:第一,注重视觉和听觉的结合,就如人的能力依赖于视觉听觉,机器视觉能力有限、听觉有限,但融合起来能力就能大幅度提高;第二注重感知与运动结合;第三注重技术和产业结合,融合人工智能技术和机器人产业。刘宏教授现在以及未来十年的主要工作是开发北大智能人工头系统,他“坚信人工头是人工智能和机器人结合的最佳载体”。机器视觉方面,刘教授介绍了用在线GNG方法对变化的监控环境中的异常行为进行检测,其中关键的思想是给GNG增加在线更新的能力,让机器适应从少见多怪到习以为常的变化,算法的效率和鲁棒性都得到了提高。听觉方面,刘教授团队目前最重要的是做了听觉定位,机器听觉定位的难点在于不仅仅要定位偏转角,还要定位俯仰角、距离,同时要考虑抗噪。


刘康:基于深度学习的知识问答


刘康老师介绍了基于深度学习的知识问答的方法,开始时他指出“搜索引擎是返回相关的文档,是以列表的形式提供文档,是不是有方式能直接、精准的给出答案?”随着屏幕越变越小,刘康老师认为列表的形式不再适合在未来和用户交互,知识库结构化技术则是未来的方向,这项技术目前已经有相关应用,例如搜索中国有多大,会看到直接的数字答案,这就有别于以往的搜索引擎。那么基于知识库的问答究竟是怎样做的呢?刘康老师介绍:“知识图谱是结构化的,知识库问答将问句通过语义解析的手段变成语义表示的一种形式,在结构化的知识库或者知识图谱上通过语义匹配、查询、推理等手段,能够获取答案。”按照基于语义形式表示方式的不同,知识库问答的方法分为两类:一是基于符号表示的方法;二是基于分布式的方法,它能够将问题表达为实数的向量形式,把符号匹配的过程转化为向量之间数值的运算。刘康老师指出传统基于符号表示的方法遇到的挑战有:1、语义鸿沟; 2、级联式多项NLP处理带来的错误传递;3、开放域环境下如何进行semantic parsing。对传统的解决方法中的种种问题,刘康老师指出“我们可以看到,基于Deep Learning的技术用分布式的知识表示形式能够有效改善传统符号处理中的语义鸿沟问题,而基于Deep Learning的端到端的知识问答系统能使得复杂的问答过程可学习,同时基于深度学习的文本生成是完成自然问答的有效途径。”至于基于深度学习的知识问答还存在的问题则有三个,即问句的精准语义表示;问答过程可解释;仍然无法替代逻辑推理。


王亦洲:生物启发的计算机视觉


王亦洲教授指出,深度学习技术让识别变得越来越简单,在这样的大背景下,他思考“想把模式识别向下一个stage试试。”、“我认为要走到learning to learn。”王亦洲教授研究多智能体的感知学习,他说:“感兴趣的是多智能体如何在视觉帮助下自主协同的完成各自的任务,这其中各个agent的任务是不一样的。”王亦洲教授认为:“很多视觉和机器人的结合是沙滩上的建筑,是没有根基的,因为我们的图像大多是摆拍的,在真实的环境中,智能体是否也有相同的表现?这才是重要的。”他指出,类真实的虚拟环境能提供可控的数据去训练和评价智能体或者算法,智能体应在和环境的交互中学习,而不是静态的图像。


王琦:复杂场景中人群行为的研究及其应用


随着人口增多和人群活动的增加,安全问题日益成为人们关注的热点问题,王琦教授指出“如何通过智能视频监控的手段解决安全问题,尤其是公共安全问题”值得研究,这能“推动智慧城市的发展,推动平安城市的建设”。王琦教授对于人群行为分析的研究主要有以下方面的内容:人群检测与跟踪、群组检测和人群行为的量化。王琦教授介绍,在他的研究中引入了个体行为的集体度和群体行为的集体度,进而从量化的角度对人群行为进行度量,行为集体度的度量是根据特征点的拓扑关系来分析的,涉及到拓扑关系如何建模和分析,王琦教授指出这存在三个难点:“首先是特征提取,其次是运动状态建模,再次是个体关系探究。”特征提取的难点是特征局部化难以表达群体的宏观特征,运动状态建模的难点在于个人运动模式的动态变化难以掌握,涉及到动态建模,个体关系探究则难在群体中空间结构复杂,难以分析个体关系。针对以上问题,王琦教授给出了基于多视角聚类的无参数群组检测方法及基于个体分析行为量化与群组检测方法,“多视角就是从多个方面提取特征”,基于多视角聚类的无参数群组检测的总体思路是探究全局关联线索,利用微观与宏观视角的特性互补,解决特征局部化的问题。基于个体分析行为量化与群组检测方法中,每个人在人群中变化轨迹是有目的性的,引入行为意图这个隐含变量,度量的过程当中认为人群中是有拓扑关系的,关系比较密切的、离得比较近人的拓扑结构会比较相似,王琦教授指出“充分挖掘拓扑关系,能更好的处理具有复杂结构的人群。”


钟伟才:华为FusionInsight数据挖掘平台与AI云服务


钟伟才博士从工业界的角度谈了大数据分析和AI云服务,大数据的市场规模17年能达到500亿,发展趋势则从营销转向用户体验,钟伟才博士指出“目前大数据最赚钱在服务器和存储,因为客户还在1.0时代,到大数据2.0,未来趋势就是用户体验”。大数据分析的演变历程是“描述分析到预测分析到指令分析到认知分析”,大数据行业的发展在16年是1.0时代,是简单的存储和报表式的分析,2.0时代将是数据变现问题,大数据分析上云也是行业未来的发展趋势。钟伟才博士曾拥有传统数据分析的行业经验,这也引发了他的思考:“大数据分析怎样跟传统数据分析去PK,市场在哪儿?”在传统数据分析已经占据80%-90%市场的情况下,钟伟才博士认为“不仅要处理大数据,还要处理小数据,通过大数据平台反打传统数据分析市场。”目前大数据分析的瓶颈问题是用户需求多种多样,对每一个用户都进行定制势必不可行,对此,钟伟才博士提出“以统一分析平台为核心,去孵化行业内可复制的分析解决方案”。

RTD业界的趋势是fast data,钟伟才博士称未来的数据处理“时间是ms级,数据是易腐烂的”、“要在数据没有腐败之前将数据的价值发挥出来”,他认为对于数据处理,未来是云端和终端协同。


杨淑媛:稀疏滤波与张量深度网络


SAR成像的机理导致其特征提取不如光学成像那么容易,用手工特征、光学特征提取的方法都不可行,对于SAR影像特征提取困难的问题,杨淑媛教授介绍了用特征学习来提取特征的方法,研究思路是“把字典学习、多字典学习在线性条件下找特征推广到在非线性条件下去找特征,现在深度神经网络在很多识别任务中表现得都非常好,所以我们就试着用深度学习的方法来提取SAR图像的特征”。杨淑媛教授指出训练深度神经网络尤其应该关注其推广能力,在她的工作中用了稀疏滤波作为基本单元来构成网络:“稀疏化这种生成网络的链接或者是神经元的输出,利于它的结构,可以减少参数的数目,有助于提升生成网络的放大能力。”杨淑媛教授还介绍她的一项研究尝试,利用张量的方式做信号的复原,用sparse coding 张量编码,把sparse coding的方法用到了图像融合和分类里。

杨淑媛教授认为:“稀疏性对于深度网络的推广能力还没有一个很好的理论结果,但是也许稀疏性能提高推广性能。稀疏滤波单元是一个有效的深度神经网络单元,它计算简单,没有太多参数,可将其作为基本单元建立一个轻量级的深度网络;把滤波的模型扩展到张量的形式,可以处理更多的情况,比如可以处理异构的数据,经过试验,提取出来的特征是具有判别性的。”她指出张量的研究才刚刚开始,还很粗浅,理论研究上还可以再深入。


李军Remote Sensing and Social Media


李军教授认为大数据不止是指数据量大,还包括数据增长速度快、不确定性强,且涉及数据采集、存储、恢复等方方面面,而遥感是典型的大数据处理问题:“遥感的数据是pixel级的、像元级的,一个小图像就会产生大量的数据”、“处理和传输上希望5秒,不然数据就被覆盖了”,此外遥感数据要受到设备的局限、时空的局限,“光学卫星数据并不是时时都有,要结合地理、天气等等因素,SAR数据使用的门槛很高,高光谱数据很少,只有一颗卫星,很傲娇,获取的数据空间分辨率和光谱分辨率都可能不高”。面对遥感数据处理中的种种难题,李军教授提出了把遥感数据和社交数据结合起来的思想:“现在,社交媒体数据时刻都在产生,量很大,也可提供更精确的描述,例如在降水天气可能得不到遥感图像,但如果有前一天的遥感图像,那么结合社交数据就可以做降水分布图等”。这种结合将生态坏境信息获取和社会感知结合了起来,兼顾自然客观与社会经济要素。同时,李军教授也指出了这其中存在的难点:“现在的难度是数据的收集,目前数据的拥有者都是商业公司,获取数据的难度比较大,我就想我们能不能自己建立一个project,大家可以自发的在上面发布消息,所有人都可以开源共享这些数据,所有人既是数据的发布者,又是数据的收集者,做研究的人就能都有许多数据”,第二个难点是语义问题:“社交数据通常有位置、有文本,信息非常丰富,但其中的语义问题会给数据解译带来一些难度”。两类数据量纲、尺度、精度等存在不一致的问题,如何将信息有效的融合是未来挑战。宾夕法尼亚大学教授Nigel Waters和Guido Cervone曾在2013年应用遥感数据和社交数据结合对科罗拉多洪水灾害事件做了事后的图像分析,李军教授也在2016年用遥感数据和微博数据结合做了武汉和深圳降水的监测研究,但对于遥感和社交数据的结合的研究还有待进一步深入。


陈莉协同过滤关键技术及其稀疏性研究


数据量的爆发加速了科技发展,但同时也带来了信息过载等问题,陈莉教授指出:“信息过载的解决工具之一是推荐系统。”推荐系统有三个基本要素:丰富的数据聚合,其中涉及到数据的采集、解析、预处理;关联的参考结构,建立字典、知识库、本体等;有效的算法。陈莉教授说:“发展到今天有很多挑战性问题,第一是数据稀疏性问题,二是推荐准确度,三是系统扩展性,推荐多样性问题,冷启动问题。”针对这些问题的解决,陈莉教授介绍了六个推荐算法,她还进一步展望:“解决实际问题的算法,多元异质数据的融合非常重要,多元数据融合当中会包含非常多的数据类型和特征,从这个角度入手可能也值得研究。二是利用用户的情景信息,我们已经发现在多样性尤其时序多样性方面有非常好的表现,相信也会有新的应用领域,不止是电子商务领域,比如社交领域、众包等。”


陈欢欢:地下管网探测


随着城市的发展,地下空间的利用日益重要,陈欢欢教授介绍:“地下管道其实也是城市的血管,包括下水管道、燃气管道,通信电缆等,各种管道材质不一样,对它们探测的时候单一的传感器很难探测得很精密,我们就思考有没有一种设备可以现场实施探测出地下管道的情况。”目前,国内对于地下空间的管理存在诸多问题,例如历史管网档案遗失,管网权属部门太多,档案分散,施工中“撞线”,管线位置精度不够,管道故障的快速检测设备缺少等等。陈欢欢教授曾在英国参与了Mapping the Underworld项目,通过多维传感器来构建地下管网地图,回国后他继续了此方面的研究,从算法研究-快速信号处理与数据融合、软件协同-地理信息系统协同、系统构建-多传感器的系统集成三个方面做了诸多工作,针对国内的具体情况提出了解决方案,在老城区使用多传感器设备:地面穿透雷达、主动电磁场、被动电磁场、用深度学习训练地面及井盖识别视觉传感器、GPS融合地理信息,新城区使用智慧管道RFID标签等。陈欢欢教授的多通道地面穿透雷达系统已经可以实时获取探测图像,算法上,非同态双曲线拟合+概率混合模型+贝叶斯信息准则有很好的实时性,可做到1秒处理100+管道。


张艳宁:高分辨率图像智能处理技术


高分辨率对地观测在国家安全战略和社会经济发展等方面发挥着越来越重要的作用,对其发展现状,张艳宁教授介绍:“分辨率越来越高,但由于硬件、平台的不稳定和环境的影响,成像质量还是不够;此外数据智能处理水平有限,一是协同能力二是海量处理能力还不满足需求。”针对高分辨率对地观测的现状和问题,张艳宁教授介绍了她在图像清晰化处理技术研究中的成果:去模糊最重要是估计模糊核,提出方法提取可靠的图像结构,主要的核心思想是依次激活最可靠的图像梯度;解决不一致的模糊的问题则用数据驱动的方式,学一个深度学习模型,做端到端的估计;超分辨的难点中,利用变形性质表示字典中不存在的图像块来解决低分辨率怎样映射到高分辨率的问题,把非单一的梯度模式分解回单一的梯度模式来解决精细高频纹理的重建问题;把类内光谱相关性和光谱类的结构具有稀疏性相结合,进行联合建模解决去噪问题。

协同也是现在张艳宁教授特别关注的,她说:“思路就是三个臭皮匠能顶诸葛亮,可见光、热红外、高光谱,单独用它们看看不到,但协同之后效果就比较好。”张艳宁教授在对黄河的遥感监测中就应用了协同感知:“一个是方法之间做了协同,偏度分析主溜检测也可以检测出来,光谱相似性演进主溜检测也能检测出来,就做了这两个方法的协同。另外是人和系统的协同,人和系统分别观测,然后交换信息做修正。”

张艳宁教授分享她对未来的展望思考:“以后想做技术创新方面,想做协同,想在技术标准规范方面想做点成果,要把一体化应用平台做好,做空天地一体化,除了在西安,我认为我们也要在外面布局,蓝色海洋是一块块大蛋糕,大家要去切,将在青岛建研究所,空天地海一体化针对海洋经济去做。”


薛建儒:无人车场景计算与自主运动


无人驾驶汽车是当前的研究热点之一,薛建儒教授认为无人驾驶带来的颠覆性变化有三点:出行更加安全、绿色;共享、共用会更加深入人心;道路会变得非常畅通。无人车的技术路线分成两个大类:“一个强调自主智能,通过多传感器融合的环境控制来实现鲁棒的控制,第二是互联智能,车和车之间、车和交通之间的互联互通,它对自主智能的要求会下降,但对环境的要求增高,这两条技术路线会相互促进,最终融合成一条技术路线。”人类驾驶汽车中视觉的信息非常重要,但无人车的数据处理中甚少视觉信息的运用,薛建儒教授认为这非常遗憾:“无人车里主要还是靠激光雷达、毫米波雷达来实现对环境的感知,例如前向碰撞检测、停车雷达还是靠超声波等非视觉的信息,这也是我们做视觉学习的一个主要原因。” 实现无人车感知到运动的闭环要解决两个问题:场景计算和自主定位,在场景计算方面,薛建儒教授提出的主要思想是“让视觉在无人车中起到主导作用,以视觉传感器为主,其他传感器为辅,通过视觉把其他的传感器的信息统一起来”。交通场景的结构化描述分为静态场景和动态场景,在解决了静态和动态场景的结构化描述问题以后,薛建儒教授“搭建了一个视觉主导的场景计算框架,我们的主要贡献是跨模态和跨尺度的时空对齐与配准,并且在此基础上把低精度的地图信息放进去构成对场景结构化的描述,实现从几何度量到推理和预测。”


高新波:大数据时代模式识别的机遇与挑战


高新波教授开场就说:“想跟大家展望一下模式识别怎样发展”,他指出:“现在的模式识别大致分为三类,一类是统计模式识别;二是句法模式识别,在未来类脑计算领域有可能进一步发展;三是深度神经网络,现在正在火热的阶段,它最大的问题是可解释性太差,但现在逐步能解释了, 比如通过可视化等等。”句法模式识别是知识驱动的,深度是数据驱动的,高新波教授认为把句法模式识别和深度神经网络结合起来是未来的方向“既知识驱动也数据驱动,数据就会产生知识,知识反过来提升模式识别的能力。”目前,模式识别在很多领域都获得了成功,但高新波教授认为还有挑战,鲁棒性、自适应性、可泛化性是其进一步发展是三大瓶颈。

对于大数据时代的降临,高新波教授指出:“大数据的价值不在于大数据本身,而在于对它内容的理解与识别,重要的还是模式识别,识别不了大数据就没什么作用。”大数据为模式识别提供了新机遇,训练数据的丰富性将显著提升模式识别系统的精度和泛化能力,相关领域的成功将推动模式识别与其他学科的协同创新,以模式识别为智慧引擎的IPU或将在下一代ICT体系中占据更重要的核心位置等等。当然,挑战与机遇并存,高新波教授也提出了模式识别面对的挑战及可能的研究课题:

a) 面向大规模多源异构数据的鲁棒表达

b) 结构模式识别和统计模式识别结合

c) 数据和知识结合,发展人机混合智能

d) 具有鲁棒性和自适应性的生物启发模式识别

e) 基于跨领域模态知识迁移的模式识别

f) 模式识别研究也需要互联网思维等


石光明:语义通讯


无论是以往的信号的表达、获取、重构工作,还是现在的大数据、云计算,国内的研究工作基本都是跟随状态,石光明教授一直在思考:“我们的工作没有原创性,我们有没有可能发起一个方向的引领?”经过研究与思考,石光明教授提出了语义通讯的概念:“我们以往都是从信号层、数据层做事情,那通讯的最终目的是什么?最主要就是要语义通讯!就是我讲的东西你能明白,可能我讲的波形不一样、数据比特不一样,但只要你懂意思就可以了,这是通讯最根本的,所以我就做了语义通讯的思考。”对于语义通讯,实际上还没有明确的定义,基本架构、核心内容、基本问题等等都没有相关的研究,石光明教授认为这应该是一个开创性的方向。未来智能设备将无处不在,传统的数据交互方式将难以满足人机交互,如何用少量频率资源做到“达意明情信息交流”是需要研究的问题,石光明教授指出:“通讯的方式应由波形识别代替波形重构,我们的编码方式、就是每说一句话跟我们过去的知识是有关系的,接收也是随着知识变化来接收,传统的以波形保真为原则的通信要颠覆掉。”、“原来的通信注重底层的设计,实际上有了语义通讯概念之后,主要在智能编码这块设计,在信号层面就可以混用了。”石光明教授归纳了一些语义通讯的特点,例如以基础语义为要素,替代比特;多用户非正交大容量公用信道;底层信号容错性极强;同域混叠编码跨域解码;层级化语义编解码;基于智能技术编解码等。同时,石光明教授也指出了一些可研究的课题内容:语义的基本要素刻画、语义层级结构刻画、语义容错纠错机制、语义信号混叠编码传输机制、语义先验解意机制、语义先验创建与维护等。石光明教授说:“所有这些都需要用深度学习的方法来研究,这些概念我还没有完全想清楚,推进得比较慢,希望大家可以一起来研究推进。”


李阳阳:量子计算、优化与学习


随着信息获取技术的发展,面临海量的信息和不完全的数据,用传统的方法是不可计算的,对此,李阳阳教授的想法是:“将待处理的问题看做优化的过程,用优化的思想去解决缺乏结构性逼近、学习能力差及传统方法的一些瓶颈问题。”当计算量比较庞大的时候,李阳阳教授采取量子优化建模的方法来解决。关于聚类问题,李阳阳教授采用多目标的思想:“我们希望建立量子智能多目标优化与学习,来达到高效的海量数据的感知与识别。” 聚类是研究逻辑、物理上数据间的联系,信息时代有各种各样的高维数据,但高维数据不断积分,其维度的稀疏和冗余带来的维度灾难使得李阳阳教授进行了思考,对于海量数据,她用优化来克服密度性局部最优和初始值敏感问题。关于量子智能优化,量子行为其实就是从宏观来到了围观,将牛顿空间映射到了量子空间,考虑它的波动性,用一个波函数来反映粒子的位置,因其不需要方向性,故能降低参数的数目,子空间的聚类则实现维度约减。用具有量子行为的群体智能来优化权值矩阵,再通过权值矩阵再指导中心矩阵的划分,这就是一个进化学习的过程。李阳阳教授基于MapReduce的QPSO研究,提出了全局优化的量子智能优化算法框架,求解比较均匀,证明了算法的收敛性,并用于求解数值优化,约束满足优化、组合优化问题;同时也提出了量子多目标优化与学习模型,并用于求解海量数据聚类分类和复杂网络社区检测问题。针对传统的处理方法全局优化能力不足,依赖数据的先验分布,算法缺乏自组织、自学习能力,算法模型对多目标函数的考虑不足,缺乏智能性等问题,李阳阳教授展望其未来工作:“将进化计算作为智能遥感影像处理的有效手段,因为它可以进行全局搜索、可以考虑多个目标,不需要影像的分布假设,能实现自动确定数据、样本自主学习、自控确定权值参数等等。”、“希望体现量子计算的协作学习,实现大规模的优化,多目标的方法。”


信息来源: http://www.hundred-int.com/iiip/html/dongtaixinwen/shiyanshixinwen/2017/0620/1844.html
  • 上一篇文章:33位顶尖学者汇聚西电——深度学习与大数据感知”国际研讨会暨智能感知与图像理解教育部重点实验室第十八届学术周成功举办
  • 下一篇文章:智能感知与图像理解教育部重点实验室师生参加第37届IEEE国际地球科学与遥感大会
  • 返回顶部