前向推理论文_吴焕,吴俊敏

导读:本文包含了前向推理论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:前向,本体,卷积,神经网络,可信度,算法,基层。

前向推理论文文献综述

吴焕,吴俊敏[1](2018)在《基于Caffe加速卷积神经网络前向推理》一文中研究指出为加速卷积神经网络的前向推理速度,提出一种针对卷积操作访存连续性的优化策略。在深度学习框架Caffe中,卷积以矩阵乘法的形式实现。Caffe卷积包含两个主要操作,分别是im2col和gemm。im2col称为image to columns,负责展开输入图像;gemm是general matrix-matrix multiplication的缩写,负责完成矩阵与矩阵之间的乘法运算。在以行优先的体系结构中,通过转置操作改变输入图像的数据排列,提升im2col和gemm的访存效率。实验结果表明,卷积操作的平均加速比在40%左右。(本文来源于《计算机工程与设计》期刊2018年12期)

吴焕[2](2018)在《卷积神经网络压缩与前向推理加速技术研究》一文中研究指出得益于大规模数据集和GPU高效的并行计算能力,深度学习技术在过去几年取得了飞跃式的发展。如今,深度学习在许多领域的性能都超过了人类表现,研发人员纷纷开始将这项技术产业化,智能音响、智能手机等一系列设备逐渐成为深度学习落地的首选。在过去很长一段时间,只有大型神经网络才能达到商用产品的性能要求。然而,许多设备的计算资源十分有限,无论从时间、空间还是能耗的角度,都无法满足大型网络的计算需求。为加速并压缩现有的神经网络,本文从以下叁个方面开展研究工作:为找到卷积神经网络中需要重点优化的对象,本文首先统计了各个网络层的FLOPs以及Parameters。统计结果表明,卷积层是卷积神经网络中计算量最大的部份,而全连接层是参数占比最高的部份。接着,为了解模型压缩对精度的影响,本文又统计了 AlexNet的权重分布。实验结果表明,卷积层和全连接层中存在大量接近于零的参数,这部分参数对模型的贡献很小,因此可以在不影响原始精度的情况下压缩网络结构。在统计实验的基础上,本文提出了一种针对卷积操作访存连续性的加速策略。在深度学习框架Caffe中,卷积以矩阵乘法的形式实现。Caffe卷积包含两个主要操作,分别是im2col和gemm。im2col全称Image to Columns,这个操作主要负责展开输入图像。gemm是General Matrix-matrix Multiplication的缩写,它主要负责完成矩阵与矩阵之间的乘法运算。在以行优先的体系结构中,通过转置操作改变输入图像的数据排列,可以同时提升im2col和gemm的访存效率。实验结果表明,改进后的卷积加速比在40%左右。除了改进卷积操作,本文还针对模型尺寸过大的问题提出了一种新型的压缩算法。在一个预训练模型中,每层神经元都有固定的映射关系。由于卷积神经网络存在大量冗余,删除部分参数后依然可以保持原有映射。该方法通过移除冗余神经元与卷积核,将测试集中所有样本的的输入输出关系提取到更小的网络结构中。压缩后的模型不仅更小更快,而且精度不会受到影响。实验结果表明,压缩率在4到21倍左右,加速比在2到5倍左右。(本文来源于《中国科学技术大学》期刊2018-05-01)

罗太柏[3](2015)在《智能教育物理平台中基于前向推理的解题子系统的研究》一文中研究指出随着定理机器证明的发展,自动推理技术在智能教育领域的应用日趋频繁。本文以智能教育物理平台为基础,结合前人已有的研究成果,在智能教育物理平台已有的动态构图子系统和问题自动动态生成子系统的基础上,研究了基于产生式规则的前向推理方法在物理问题自动求解领域的应用,并在问题自动求解的基础上设计了可读求解过程的生成算法。以初中物理范围内力和机械知识为例,设计和实现了基于前向推理方法的智能教育物理平台解题子系统。本文的主要工作和研究成果如下:(1)设计了谓词逻辑和框架知识表示相结合的物理知识表示体系。(2)设计了基于产生式规则的物理规则表示体系。(3)以面向对象程序设计技术为基础,运用前向推理方法理论,分析、设计、实现了智能教育物理平台解题子系统。(4)以动态链接技术为基础,解决了智能教育物理平台各子系统间的对接问题。使物理教育智能平台成为一个有机整体。(本文来源于《四川师范大学》期刊2015-04-08)

管庆华,徐德智[4](2010)在《一种对基于GRA本体映射的精细前向推理方法》一文中研究指出基层用户产生的本体映射关系蕴含着相关领域的类层次结构,利用这部分知识可用于新映射关系的产生。现有的系统考虑了类层次关系的复杂性,加入了等价关系的应用,但是在知识库处理中的前向推理阶段,对矛盾知识仅是简单删除,从而影响到查全率。针对这些问题,提出了来源可信度以精确化知识的可信程度,并重新设计了类层次知识库的矛盾知识推理规则。实验表明,改进的系统使知识结构更加合理,在保证查准率的同时可以明显改善查全率。(本文来源于《计算机工程与应用》期刊2010年34期)

李熙,徐德智,王建新[5](2010)在《对GRAOM+中前向推理方法的改进》一文中研究指出基层用户产生的本体映射关系蕴含着相关领域的类层次结构,利用这部分知识可用于新映射关系的产生。现有的系统考虑了类层次关系的复杂性,加入了等价关系的应用,但是在知识库处理中的前向推理阶段,对矛盾知识仅是简单删除,从而影响到查全率。针对这些问题,提出了来源可信度以精确知识的可信程度,并重新设计了类层次知识库的矛盾知识推理规则。实验表明,改进的系统使知识结构更加精确,在保证查准率的同时可以明显改善查全率。(本文来源于《计算机工程与应用》期刊2010年34期)

潘斌,郭红霞[6](2008)在《几何定理机器证明的并行前向推理》一文中研究指出为了提高传统前向推理算法在几何定理机器证明中的解题效率,采用并行计算方法来组织推理过程,基于消息传递模型,分析了前向推理并行算法的任务划分、通信组织、任务调度等问题,讨论了算法的时间复杂度,并在MPICH 2构建的并行计算环境下实现了并行前向推理算法.对多个几何定理实例进行的并行性能指标测试表明,该算法并行性好,与传统串行算法相比,在证明复杂的几何命题时,能显着减少推理时间.(本文来源于《华南理工大学学报(自然科学版)》期刊2008年04期)

彭建国[7](2003)在《工作记忆广度与语篇阅读中前向推理和后向推理的关系》一文中研究指出采用2×2×2独立设计,以反应时为指标,以较长的语篇为实验材料,利用命名法从工作记忆能力个体差异的角度,探讨被试阅读过程中前向推理和后向推理的时间进程。结果表明:工作记忆广度影响前向推理和后向推理的加工进程,高工作记忆广度可促进前向推理和后向推理的加工进程,低工作记忆广度限制前向推理和后向推理的加工进程;在300ms时间间隔下,高工作记忆广度被试可即时做出后向推理,但是不能做出前向推理,而低工作记忆广度的被试既不能做出前向推理,也不能做出后向推理。无论高、低工作记忆广度的被试在1000ms的时间间隔下都能做出推理,即前向推理和后向推理都是即时做出的,但是低工作记忆广度的被试需要时间构建。(本文来源于《河北师范大学》期刊2003-05-18)

邹军,陈望梅,麦中凡[8](1996)在《Ada智能模拟包AISP的前向推理系统》一文中研究指出AISP是一个用Ada语言开发的智能模拟环境。本文从界面语言、知识库、推理机等几个方面详细介绍AISP前向推理系统的设计及其两种应用途径:作为智能模拟包,构造军事智能模拟系统;作为专家系统工具,开发军事专家系统。(本文来源于《计算机与数字工程》期刊1996年01期)

前向推理论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

得益于大规模数据集和GPU高效的并行计算能力,深度学习技术在过去几年取得了飞跃式的发展。如今,深度学习在许多领域的性能都超过了人类表现,研发人员纷纷开始将这项技术产业化,智能音响、智能手机等一系列设备逐渐成为深度学习落地的首选。在过去很长一段时间,只有大型神经网络才能达到商用产品的性能要求。然而,许多设备的计算资源十分有限,无论从时间、空间还是能耗的角度,都无法满足大型网络的计算需求。为加速并压缩现有的神经网络,本文从以下叁个方面开展研究工作:为找到卷积神经网络中需要重点优化的对象,本文首先统计了各个网络层的FLOPs以及Parameters。统计结果表明,卷积层是卷积神经网络中计算量最大的部份,而全连接层是参数占比最高的部份。接着,为了解模型压缩对精度的影响,本文又统计了 AlexNet的权重分布。实验结果表明,卷积层和全连接层中存在大量接近于零的参数,这部分参数对模型的贡献很小,因此可以在不影响原始精度的情况下压缩网络结构。在统计实验的基础上,本文提出了一种针对卷积操作访存连续性的加速策略。在深度学习框架Caffe中,卷积以矩阵乘法的形式实现。Caffe卷积包含两个主要操作,分别是im2col和gemm。im2col全称Image to Columns,这个操作主要负责展开输入图像。gemm是General Matrix-matrix Multiplication的缩写,它主要负责完成矩阵与矩阵之间的乘法运算。在以行优先的体系结构中,通过转置操作改变输入图像的数据排列,可以同时提升im2col和gemm的访存效率。实验结果表明,改进后的卷积加速比在40%左右。除了改进卷积操作,本文还针对模型尺寸过大的问题提出了一种新型的压缩算法。在一个预训练模型中,每层神经元都有固定的映射关系。由于卷积神经网络存在大量冗余,删除部分参数后依然可以保持原有映射。该方法通过移除冗余神经元与卷积核,将测试集中所有样本的的输入输出关系提取到更小的网络结构中。压缩后的模型不仅更小更快,而且精度不会受到影响。实验结果表明,压缩率在4到21倍左右,加速比在2到5倍左右。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

前向推理论文参考文献

[1].吴焕,吴俊敏.基于Caffe加速卷积神经网络前向推理[J].计算机工程与设计.2018

[2].吴焕.卷积神经网络压缩与前向推理加速技术研究[D].中国科学技术大学.2018

[3].罗太柏.智能教育物理平台中基于前向推理的解题子系统的研究[D].四川师范大学.2015

[4].管庆华,徐德智.一种对基于GRA本体映射的精细前向推理方法[J].计算机工程与应用.2010

[5].李熙,徐德智,王建新.对GRAOM+中前向推理方法的改进[J].计算机工程与应用.2010

[6].潘斌,郭红霞.几何定理机器证明的并行前向推理[J].华南理工大学学报(自然科学版).2008

[7].彭建国.工作记忆广度与语篇阅读中前向推理和后向推理的关系[D].河北师范大学.2003

[8].邹军,陈望梅,麦中凡.Ada智能模拟包AISP的前向推理系统[J].计算机与数字工程.1996

论文知识图

前向推理框图前向推理机制流程前向推理过程基于对象的知识推理算法前向推理示意图一1前向推理流程

标签:;  ;  ;  ;  ;  ;  ;  

前向推理论文_吴焕,吴俊敏
下载Doc文档

猜你喜欢