导读:本文包含了日志数据论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:数据,日志,用户,船位,拖网,可信性,分词。
日志数据论文文献综述
冯菲,周艳波,陈森,谢恩阁,吴洽儿[1](2019)在《拖网渔船电子捕捞日志的作业信息与北斗船位数据获取的作业信息的可信度比较研究》一文中研究指出为分析电子捕捞日志数据的准确性和可信度,以"粤新会渔01282""粤新会渔01240""粤新会渔01286""粤新会渔01239""粤茂滨渔47239""粤新会渔02163""粤茂滨渔42278""粤新会渔00070"和"粤新会渔01268"9艘拖网渔船2018年8月17日—2019年4月30日的作业状态为研究对象,利用北斗船位数据提取拖网作业时间、作业网次和作业渔区,与电子捕捞日志数据的相关信息进行比较验证。结果表明,9艘拖网渔船的电子捕捞日志数据与北斗数据提取的作业时间的重复率分别为36.7%、64.8%、71.4%、81.5%、24.7%、46.7%、66.7%、79.6%和68.9%。作业渔区的重复率分别为80%、86.9%、65.7%、74.7%、75.3%、85.6%、71.6%、56.9%和65.2%,作业网次的重复率分别为65%、86.4%、60%、70%、75.3%、67.1%、54.4%、62.1%和35.4%。作业时间与渔获量的相关性分析结果表明,"粤新会渔01286""粤新会渔01239""粤新会渔01240"和"粤茂滨渔47239"的作业时间与渔获量呈极显着相关(P<0.01),"粤茂滨渔42278"的作业时间与渔获量呈显着相关(P<0.05),"粤新会渔01282""粤新会渔02163""粤新会渔00070"和"粤新会渔01268"的作业时间与渔获量无显着相关性(P<0.05),反映出电子捕捞日志数据的准确性和可信性尚有空间可待提高。(本文来源于《南方水产科学》期刊2019年06期)
耿辉,宋烜,程戈亮,陈林,余剑军[2](2019)在《数据中心日志集中管理平台研究》一文中研究指出日志信息是一个系统或设备的运行轨迹描述,也是运行历史情况的集中体现。对于数据中心的日常运维来说,历史日志至关重要。受本地文件系统空间大小的限制,历史日志信息有周期性清理机制,通常只会保留一段时间。一般软件或设备的日志信息都会以某种格式产生并输出到本地对应日志文件夹下,运维人员可以从对应日志文件中获悉系统的运行状况。事件发生时往往都(本文来源于《中国金融电脑》期刊2019年11期)
丁国浩,徐辰,钱卫宁[3](2019)在《面向日志结构化数据存储的高效数据加载》一文中研究指出近年来,随着互联网技术的快速发展,无论是互联网企业还是传统的金融机构,用户量和业务处理数据量都在快速地增长.传统的通过增加服务器并采用基于分库分表的方法来解决扩展性问题,需要大量的人工维护成本和硬件开销.为降低开销和分库分表带来的各种问题,业界通常用新型数据库系统替换原有的系统,其中,基于日志结构合并树存储的数据库系统(如OceanBase)被广泛采用,这类系统磁盘上存储数据块呈现全局有序的特征.在从传统数据库切换到新型数据库过程中,需要将大量数据加载到新数据库系统中,长时间加载的过程中可能出现数据库节点宕机.为了减少总加载时间和故障恢复时间,提出了一种负载均衡且支持高效容错的数据加载方法;为了支持负载均衡的数据加载,与预确定分区划分数据的方法不同,考虑到目标系统默认存储块大小,采用通过基于文件大小和目标系统默认存储块大小预计算分区数目,并利用分库分表的数据导出往往已经排序的特点,采用选取部分采样块和等间隔选取样本的方式确定分区之间的切分点,避免了全局采样和随机或头部样本选取方式确定切分点带来的高开销;为了加快故障恢复速度,利用日志结构合并树存储系统的多备份减少故障恢复时的数据量,提出了基本副本局部故障恢复方式,避免了完全重新加载的故障恢复方式.实验结果表明,相比采用预确定分区数目和全局选取采样块的随机或头部选取样本方法,采用预计算分区数目和部分选取采样块的等间隔选取样本确定切分点的方法,提高了数据加载的性能,并且验证了基于副本局部故障恢复方法相比完全重启加载恢复方法的高效性.(本文来源于《华东师范大学学报(自然科学版)》期刊2019年05期)
蒙华,苏静,李立峰,翟玉兰[4](2019)在《医院网站日志挖掘数据预处理的研究》一文中研究指出数据预处理是数据挖掘工作的基础。以医院网站服务器用户访问日志为例,对日志挖掘的概念以及数据预处理过程进行研究。采用数据库技术和Matlab工具消除初始数据集的冗余度、复杂度,以网站页面和用户关联性为度量,得出可直接作为挖掘算法输入的相似度矩阵。重点研究了医院网站日志的用户识别以及相似度矩阵的页面聚类标准化方法。实验结果表明:该方法极大降低了初始日志数据冗余度和维度,提高了预处理结果准确性,增强了数据挖掘算法输入的信息含量。(本文来源于《重庆理工大学学报(自然科学)》期刊2019年08期)
夏文菁,徐明,吴铤,郑宁[5](2019)在《一种基于预写日志的SQLite快速数据恢复方法》一文中研究指出随着存储设备的容量不断变大,数据恢复速度慢日益成为该领域当前突出的问题。快速数据恢复成为当前数据安全、数字取证领域的一个研究热点和难点问题。以SQLite数据库为研究实例,对现有的基于预写日志的数据库恢复算法进行了分析整理,并使用MapReduce对其进行性能改进,提升了这些算法的恢复速度和效率。研究成果表明,利用MapReduce来提升数据恢复的效率是行之有效的方法。(本文来源于《通信技术》期刊2019年08期)
于光华,辛明远,王丽红,夏魁良[6](2019)在《基于Hadoop的大数据论坛日志系统的分析与设计》一文中研究指出大数据时代的诞生,为解决挖掘海量数据存储的信息带来了技术上的革命,通过网站点击存留的日志数据,分析这些数据,可获知许多对网站运营至关重要的信息。本文采用Hadoop分布式平台,使用HDFS数据存储,利用Hive来分析日志数据,设计一种Web日志分析系统,并阐述了系统的设计过程。(本文来源于《齐齐哈尔大学学报(自然科学版)》期刊2019年05期)
成耐克[7](2019)在《面向教育数据日志分析的用户行为预测研究》一文中研究指出当前大多数信息系统使用用户静态属性、动态行为等数据预测用户访问网站行为,但是对用户动态行为之间的联系考虑不足。在业务信息系统中,业务流程的设计是决定用户行为的主要因素。因此,本文使用教育领域业务信息系统的用户行为日志数据,进行了叁方面研究:(1)从日志数据中挖掘用户行为关系;(2)研究了融合用户行为关系的脑皮层学习模型BRHTM;(3)预测地区教育统计平台用户访问网站行为。具体研究如下:首先,使用过程挖掘的方法构建完整的工作流网。本文结合该问题研究了一种新型日志次序关系以实现上述目标,并通过五个质量维度(拟合度、简洁度、精确度、泛化度和行为适当性)来比较日志次序关系。在此基础上,梳理用户日志数据中的因果关系、并行关系,结合用户行为次数、前件次数和后件次数进行相关性分析。实验证明,这五类特征之间存在强相关性。最后使用聚类算法,结合用户行为类别标签挖掘用户行为关系。其次,本文设计了融合用户行为关系的脑皮层学习模型,即BRHTM。首先重点探讨了稀疏分布表示,形成了基于稀疏分布表示的处理单元,即一种专属的人工细胞模型,从而构成了该模型的训练数据集;然后识别细胞活跃状态、细胞预测状态,并更新细胞突触值,形成细胞预测模型;遍历模型预测结果。最终实验证明,BRHTM在用户访问网站多步预测时具有良好的效果,提高了准确率。最后,应用本文研究的融合用户行为关系的脑皮层学习模型BRHTM,设计出地区基础教育统计数据库平台用户行为预测的实施方案和软件系统。在地区教育统计基础数据库平台中设置用户行为预测模块,使用该模型对用户行为进行预测,并向用户予以实时提示。通过该功能,验证了模型的可用性,并为类似的预测问题提供了解决思路。该模型过程基本完整,使得用户行为预测问题得到了解决。(本文来源于《西安理工大学》期刊2019-06-30)
朱益中[8](2019)在《广电网络安全日志大数据分析的探索与实践》一文中研究指出为解决日益复杂的网络攻击,通过对广电网络和设备日志的分析,结合云端提供的威胁情报,能够有效发现网络中存在的APT(Advanced Persistent Threat)攻击行为,快速发现网络中受控主机,及时产生告警,实现对海量数据进行多维度快速、自动化的关联分析发现威胁和对异常行为的态势感知,为快速分析、定性、处置提供可视化辅助手段和证据留存。(本文来源于《中国传媒科技》期刊2019年06期)
魏忠,鲁源,黄阿娜[9](2019)在《基于日志数据的研发工程师能力评价研究》一文中研究指出针对企业管理中全面客观评价员工能力的问题,提出一种基于日志数据分析员工能力的评价方法。使用Python对研发工程师的工作日志文本进行特征分析、词频统计、特征词提取等;采用德尔菲法对能力评价指标展开问卷调查,并进行统计分析;运用前景随机占优准则处理调查结果,两两比较计算得出研发工程师的能力评价分数。研究结果表明:基于日志数据处理而得的能力评价分数具有一定的准确性和稳定性,为企业选拔优秀研发工程师提供了一种新的方法和思路。(本文来源于《计算机应用与软件》期刊2019年06期)
何美惠[10](2019)在《基于运营商日志数据的用户行为分析》一文中研究指出目前,运营商正面临着更加复杂和激烈的竞争形势。首先随着移动互联网的蓬勃发展,传统的通信运营商渐渐地处于管道化和边缘化的不利地位。其次语音业务量的下滑以及流量快速增长带来的高额建设维护成本,也使运营商的利润增速放缓。为此,开展以用户为中心的数据分析和挖掘可以帮助运营商来应对上述的竞争形势。其中,识别用户的重要位置(频繁访问的位置)不仅可以为用户提供个性化的网络服务,也可以有助于城市规划者优化城市的各类资源配置,降低网络投资成本;基于用户消费的关联规则分析可以帮助运营商针对不同消费特征的用户开展精细化营销,提高用户的满意度及运营商的整体收入。本文主要利用运营商的用户日志数据对用户的行为进行研究,首先对不同类型的用户数据进行分析;然后对用户的住宅位置和工作位置进行识别;最后基于用户的消费进行关联规则的分析。具体的内容研究如下:(1)统计分析了运营商日志数据。分别对运营商日志数据中的用户通话日志记录数据、用户上网日志记录数据、小区和宫格关联数据、用户属性和消费数据进行统计分析。了解数据的整体分布情况,为用户的重要位置识别和基于用户消费特征的关联分析做准备工作。(2)提出一种联合使用时空维度的用户重要位置识别的方法。已有基于聚类分析进行重要位置识别的方法只考虑了时间维度,本文提出的方法增添基站所属区域标记这一空间维度,通过联合使用空间和时间维度对用户的重要位置进行识别。最后对本文识别方法的有效性进行了间接验证,结果表明,与原有的方法相比,该方法进一步提高了用户重要位置识别的准确性。(3)提出一种基于用户通信日志数据的用户消费特征关联分析。首先,从时间维度和空间维度挖掘用户日志数据,进行特征提取,具体包括:使用聚类的方法发现用户在不同时刻的上网/通话的行为模式,计算统计了用户累计移动距离、平均旋回半径、访问地点数和通勤距离;然后通过k-means挖掘用户消费记录数据,进行消费特征提取;最后利用FP-growth算法挖掘用户消费等级、时空行为特征和用户属性之间存在的潜在关系,共得到7条有效的强规则,并在规则的基础上为运营商提供参考营销建议。(本文来源于《北京交通大学》期刊2019-06-03)
日志数据论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
日志信息是一个系统或设备的运行轨迹描述,也是运行历史情况的集中体现。对于数据中心的日常运维来说,历史日志至关重要。受本地文件系统空间大小的限制,历史日志信息有周期性清理机制,通常只会保留一段时间。一般软件或设备的日志信息都会以某种格式产生并输出到本地对应日志文件夹下,运维人员可以从对应日志文件中获悉系统的运行状况。事件发生时往往都
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
日志数据论文参考文献
[1].冯菲,周艳波,陈森,谢恩阁,吴洽儿.拖网渔船电子捕捞日志的作业信息与北斗船位数据获取的作业信息的可信度比较研究[J].南方水产科学.2019
[2].耿辉,宋烜,程戈亮,陈林,余剑军.数据中心日志集中管理平台研究[J].中国金融电脑.2019
[3].丁国浩,徐辰,钱卫宁.面向日志结构化数据存储的高效数据加载[J].华东师范大学学报(自然科学版).2019
[4].蒙华,苏静,李立峰,翟玉兰.医院网站日志挖掘数据预处理的研究[J].重庆理工大学学报(自然科学).2019
[5].夏文菁,徐明,吴铤,郑宁.一种基于预写日志的SQLite快速数据恢复方法[J].通信技术.2019
[6].于光华,辛明远,王丽红,夏魁良.基于Hadoop的大数据论坛日志系统的分析与设计[J].齐齐哈尔大学学报(自然科学版).2019
[7].成耐克.面向教育数据日志分析的用户行为预测研究[D].西安理工大学.2019
[8].朱益中.广电网络安全日志大数据分析的探索与实践[J].中国传媒科技.2019
[9].魏忠,鲁源,黄阿娜.基于日志数据的研发工程师能力评价研究[J].计算机应用与软件.2019
[10].何美惠.基于运营商日志数据的用户行为分析[D].北京交通大学.2019