发表咨询:400-808-1731
订阅咨询:400-808-1751
北大期刊
影响因子 0.65
人气 24451
省级期刊
影响因子 0.67
人气 24038
北大期刊
影响因子 0.51
人气 23558
北大期刊
影响因子 0.99
人气 22979
北大期刊
影响因子 0.94
人气 20243
部级期刊
影响因子 0.98
人气 18218
北大期刊
影响因子 0.95
人气 17891
部级期刊
影响因子 1.03
人气 13500
部级期刊
影响因子 0.38
人气 12702
省级期刊
影响因子 0.16
人气 12166
摘要:移动大数据环境下,传统基于位置服务LBS技术面临来自系统扩展性、性能等方面的挑战。首先针对LBS应用的特点,提出了基于Storm的查询框架。然后结合基于Storm的LBS查询框架,设计并实现了并行连续范围查询算法,优化查询性能。针对分布式环境中的一致性问题,设计使用基于Zoo-Keeper的分布式锁服务,保证查询结果的正确性。进一步,针对基于Storm并行连续范围查询算法中存在访问数据库开销较大的问题,提出了基于TimeCacheMap的缓存优化算法及两种缓存策略,减少了访问数据库的开销,提高了查询效率。
摘要:数据流编程语言简化了相关领域的编程,很好地把任务计算和数据通信分开,从而使应用程序分别在任务级和数据级均具有可并行性。针对GPu/cPu混合架构中存在的大量数据并行、任务并行和流水线并行等问题,提出并实现了面向GPU/CPU混合架构的数据流程序任务划分方法和多粒度调度策略,包括任务的分类处理、GPU端任务的水平分裂和CPU端离散任务的均衡化,构造了软件流水调度,经过编译优化生成OpenCL的目标代码。任务的分类处理根据数据流程序各个任务的计算特点和任务间的通信量大小,将各任务分配到合适的计算平台上;GPU端任务的水平分裂利用GPU端任务的并行性将其均衡分裂到各个GPU,以避免GPU间高额的通信开销影响程序整体的执行性能;CPU端离散任务的均衡化通过选择合适CPU核,将CPU端各任务均衡分配给各CPU核,以保证负载均衡并提高各CPU核的利用率。实验以多块NVIDIA Tesla C2050、多核CPU为混合架构平台,选取多媒体领域典型的算法作为测试程序,实验结果表明了划分方法和调度策略的有效性。
摘要:相对于传统应用,大数据应用表现出并行性高、访存数据量大、访存模式不规则、程序访存时空局部性差等特性,对传统的计算机体系结构提出了新的挑战。Graph500是评测计算机系统大数据处理能力的基准测试排名,BFS算法是Graph500的核心程序,是典型的数据密集型应用。从1-D数据划分、优化的混合算法设计和远程通信方式设计三个方面开展研究,在课题组设计的大数据处理并行结构原型系统上设计实现了多节点的并行BFS算法,在2^22顶点、2^26边的数据规模下取得了803.8MTEPS的性能,并在此基础上进行多节点并行BFS算法的性能测试分析,为进一步的研究工作奠定了基础。
摘要:在分布式计算和内存为王的时代,Spark作为基于内存计算的分布式框架技术得到了前所未有的关注与应用。着重研究BIRCH算法在Spark上并行化的设计和实现,经过理论性能分析得到并行化过程中时间消耗较多的Spark转化操作,同时根据并行化BIRCH算法的有向无环图DAG,减少shuffle和磁盘读写频率,以期达到性能优化。最后,将并行化后的BIRcH算法分别与单机的BIRCH算法和MLlib中的K—Means聚类算法做了性能对比实验。实验结果表明,通过Spark对BIRCH算法并行化,其聚类质量没有明显的损失,并且获得了比较理想的运行时间和加速比。
摘要:减少服务器繁忙时间是云计算并行调度中节约能耗的一种有效途径,而现有基于繁忙时间的能耗节约策略大多以牺牲作业调度性能为代价,无法与其他有调度性能优势的作业调度算法结合使用。提出一种有效的基于繁忙时间的并行调度能耗优化算法——BTEOA。首先,将作业请求队列根据当前服务器可用资源划分为作业窗口和非作业窗口。其次,按照作业窗口中作业请求能使所有服务器总繁忙时间局部最优的原则匹配服务器进行调度。最后,作业窗口中所有作业请求执行完成后,继续将非作业窗口进行作业窗口与非作业窗口划分,直到所有作业请求执行完毕。作业调度过程中,始终保持作业排队模型不变,保证了作业调度性能不受影响。实例分析与实验结果表明,BTEOA算法能够在不影响作业调度性能的前提下,节约能耗,同时支持与其他作业调度算法结合使用。
摘要:为了追求更高的性能,处理器核的主频不断提升,处理器核的设计日益复杂,随之而来的是功耗问题越来越突出。除了在工艺级和电路级采用低功耗技术外,在逻辑设计阶段通过分析处理器核各个功能模块的特点并采用相应的技术手段,也可以有效降低功耗。对一款乱序超标量处理器核中功耗比较突出的模块——寄存器文件和再定序缓冲——进行了逻辑设计优化,在程序运行性能几乎不受影响的情况下明显减少了面积,降低了功耗。
摘要:提出了一种基于数据驱动的集成电路故障预测与健康管理(PHM)模型,该模型基于反向传播(BP)神经网络算法,避免了对集成电路老化失效物理机理的依赖,能有效拟合集成电路失效的非线性函数关系。以已编程应用设计的FPGA为目标器件,通过实验提取参数样本进行模型训练,并将模型应用于实测验证。结果表明,该模型输出结果与实测结果吻合良好,能有效满足集成电路故障预测与健康管理的实际应用。
摘要:摘要:空间飞行系统采用IP协议承载,相比传统的无线通信方式具有更高的数据速率和应用灵活性。为了解决低带宽、高误码率等问题,需要采用高效可靠的报头压缩算法来提高有效载荷效率。但是,由于无线环境的复杂多变,以及空间飞行系统的高速机动性,无线信道传输质量会发生动态的变化,一般的压缩算法无法很好地适应这种时变特性。为此,提出一种基于动态贝叶斯网络的健壮报头压缩算法DB—ROHC。DB-ROHC根据解压端离散的历史丢包观测序列,动态调整关键压缩参数,达到压缩率和健壮性的较好均衡。仿真结果表明,与传统的健壮压缩算法相比,该算法在复杂无线链路中健壮性更优和有效带宽更大。
摘要:摘要:移动电子商务协议的形式化分析和验证是近年来移动电子商务协议的一个重要研究热点。以一个支付网关为中心的匿名的移动电子商务支付协议PCMS为研究对象,建立了PCMS协议的时间自动机模型,并用计算树逻辑CTL公式描述PCMS协议的部分性质,最后利用模型检测工具UPPAAL对PCMS协议的无死锁、时效性、有效性和钱原子性进行检测验证。验证结果表明,以支付网关为中心的匿名的安全支付协议PCMS满足无死锁、时效性、有效性和钱原子性。
摘要:移动卫星网络因具有覆盖区域广、通信延时低等优势受到广泛关注,当前有大量研究旨在开发IP协议的组网技术,并将其与地面IP网络融合。融合网络的挑战之一,即为卫星移动性,用户在卫星网络中的接入点频繁切换导致移动管理问题,而现有的移动IP技术不能高效支持卫星网络移动切换。为了高效支持移动切换,在卫星网络中应用标地分离思想,在标地分离的架构下研究切换管理问题;用映射服务系统对终端进行位置管理,在移动切换中由新接入卫星网关和终端的标志为主要信息在原卫星中形成通告转发表。仿真结果表明,相对移动IP技术,该方法有明显优势。将其应用于卫星网络时可以降低切换延时,减少大量的绑定更新开销或是次优路由,提升系统的性能和可扩展性。
摘要:针对RFID等资源受限的特殊应用,选取安全性能较高的椭圆曲线算法进行轻量化改进研究,对其核心部分点乘运算中的模乘、模逆算法进行了改进,采用整体串行、部分并行的方式对算法执行结构进行了重新设计。经在FPGA上仿真验证,对比其他方案,改进后的算法在芯片占用面积和执行速度上有明显的综合优势,适用于RFID等资源受限的应用场合。
摘要:软件定义网络SDN将逻辑控制与数据转发相分离,提高了网络的灵活性和可编程能力,成为近年来未来网络领域的研究热点。SDN在实际应用部署时将面临控制器性能瓶颈的挑战,因而有必要理解SDN控制器的性能特性。为此,首先对SDN控制器中Packet—In消息的到达过程和处理时间进行分析,进而基于排队论提出了一种容量有限的SDN控制器性能评估模型M/M/1/m,推导得出了该模型的性能参数,包括:平均等待队长、平均等待时间、平均队列长度和平均逗留时间。最后,采用控制器性能测试工具Cbench对该模型进行了实验评估。实验结果表明:相对于现有其它模型,该模型的估计时延更接近于实际测量时延,可更精确地描述SDN控制器的性能。
摘要:基于Akishita在Montgomery形式椭圆曲线上计算双标量乘kP+lQ的思想,提出了一种计算三标量乘kp+lq+tr的新算法,使运算量减少了约23%。在上述算法基础上提出一种椭圆曲线上分段计算标量乘bP的方法,通过预计算少量点,将计算bP转化为计算kP+lq或kP+lq+tr,并使用边信道原子化的方法使其可以抵抗简单能量分析(SPA)攻击。最后使用Magma在二进制域上对分段算法仿真,结果显示二分段算法计算速度最快,三分段算法其次,在效率上均比原始Montgomery算法提升很大。
摘要:针对传统变换域水印算法往往通过修改变换域系数来嵌入水印信号,影响图像不可感知性的问题,利用载体图像整体均值与分块均值之间大小关系的稳定性,提出一种新的空域彩色图像鲁棒零水印算法。算法直接在空域通过整体图像均值与分块均值之间的关系构造特征矩阵,之后将此特征矩阵与预处理后的水印信息进行异或运算构造零水印信息,预处理之后再注册到知识产权数据库里。提取水印信息时,通过投票策略得到最终提取的水印信息。大量的仿真实验结果表明,该算法对常规的信号处理攻击、行列平移、尺寸缩放和旋转等几何攻击具有较强的鲁棒性。与相似的鲁棒水印算法相比,对于大多数的攻击,该算法具有更优越的性能。
摘要:随着软件规模的不断增长,日志在故障检测中发挥着愈加重要的作用。然而,目前软件日志缺乏统一标准,常受开发人员个人习惯影响,为大规模系统中日志的自动化分析带来了挑战。其中,日志函数的识别作为日志分析的前提条件,对分析结果有着直接影响。提出了一种基于机器学习的方法以支持日志自动识别。通过系统分析广泛使用的大规模开源软件,总结出日志函数编写的主要形式,并提取不同形式间的共性特征,进而基于机器学习实现了自动日志识别工具iLog。实验显示,使用iLog识别的日志函数能力平均为使用特定关键字的76倍,十折交叉验证得到iLog的分析结果的F-Score为0.93。
摘要:C++是一种非常流行的计算机编程语言,在使用的过程中容易出现内存泄漏问题,而该问题往往难以识别。给出了一种对C++内存泄漏问题进行分析的方法,该方法得到C++源代码的抽象语法树,从抽象语法树中提取程序控制流图,然后将类的构造函数、普通成员函数以及析构函数的程序控制流图相互连接形成新的程序控制流图,并设计算法对控制流图进行检测。最后通过一些内存泄漏的典型实例进行测试,实验表明本方法有效。
摘要:以航空旅客行李托运方式的国际标准为出发点,研究了基于行李表面深度值均方差的分类方法,为采取何种方式托运提供依据。采用Kinect传感器在行李输送带上方采集深度图像,提取行李区域的像素值并计算其均方差进行粗分类;结合行李三维形态的先验知识,根据网格之间的距离以及深度值均方差的差异,设计了基于网格相似度的自适应聚类算法,拟合聚类结果中高层单元的面积和数量,分析行李三维形态特征,确定其类别。实验结果表明,所提算法复杂度低,能快速准确地识别行李类别。
摘要:目前的人脸识别算法常常忽视训练过程中噪声的影响,特别是在训练数据和待测数据都受到噪声污染的情况下,识别性能会明显下降。针对含有光照变化、伪装、遮挡及表情变化等较大噪声的人脸识别问题,提出了一种基于低秩子空间投影和Gabor特征的稀疏表示人脸识别算法。该算法首先通过低秩矩阵恢复算法得到训练样本的潜在低秩结构和稀疏误差结构;然后利用主成分分析法找到低秩结构的Gabor特征所在低秩子空间的变换矩阵;再通过变换矩阵将所有样本的Gabor特征向量投影到低秩子空间上,在该低秩子空间上使用稀疏表示分类算法进行最终的分类识别。在Extend Yale B和AR数据库上的实验表明,新算法具有较高的识别率和较强的抗干扰能力。