发表咨询:400-808-1731
订阅咨询:400-808-1751
省级期刊
影响因子 0.3
人气 18198
部级期刊
影响因子 0.38
人气 12824
统计源期刊
影响因子 1.71
人气 12635
CSSCI南大期刊
影响因子 5.52
人气 12409
北大期刊
影响因子 3.18
人气 11701
北大期刊
影响因子 0.62
人气 10773
省级期刊
影响因子 0.42
人气 10531
统计源期刊
影响因子 1.29
人气 9982
省级期刊
影响因子 0.67
人气 9440
CSSCI南大期刊
影响因子 1.11
人气 8675
摘要:针对传统支持向量机方法中存在对噪声或野值敏感的问题,提出了一种基于紧密度的模糊支持向量机方法.在确定样本的隶属度时,不仅考虑了样本与类中心之间的关系,还考虑了类中各个样本之间的关系.通过样本之间的紧密度来描述类中各个样本之间的关系,利用包围同一类中样本的最小球半径大小来度量样本之间的紧密度.样本的隶属度依据样本在球中的位置,按照不同的规律确定与基于样本与类中心之间关系构建的模糊支持向量机方法相比,该方法有利于将野值或含噪声样本与有效样本进行区分.实验结果表明,与传统支持向量机方法及基于样本与类中心之间关系的模糊支持向量机方法相比,基于紧密度的模糊支持向量机方法具有更好的抗噪性能及分类能力.
摘要:提出了一种基于图像序列的飞行器接近角的估计方法.飞行器的接近角对于飞行器的着陆来说是一个非常重要的参数,是指飞行器在着陆时的飞行轨迹与地平面之间的夹角.飞行器在着陆时近似作平移运动,在这种情况下,图像上的极点称作FOE(focus-of-expansion),地平面的消失线被称作Horizon.首先给出了从已标定的图像序列中提取FOE和Horizon的方法,然后由这两个参数估计出飞行器的接近角.模拟实验和真实图像实验表明该方法是可行的.
摘要:扩展模糊描述逻辑EFALCN(extendedfuzzy attributive concept descriptionlanguage with complements and unqualified number restriction)是支持数量约束的描述逻辑ALCN的模糊扩展,但该逻辑的推理问题缺乏相应的算法和复杂性证明.提出EFALCN推理问题基于约束传播的Tableau算法,并证明该算法可在PSPACE(polynomial space)约束下执行.由ALCN(attributive concept descriptionlanguage with complements and unqualified number restriction)的推理问题可多项式时间归约到EFALCN推理问题,且ALCN的推理问题是PSPACE-complete问题.所以,EFALCN推理问题是PSPACE-hard问题.综上所述,EFALCN推理问题是PSPACE-complete问题.
摘要:定性的空间推理在地理信息系统、人工智能、数据库及多媒体等领域中的应用越来越引起人们的注意.空间推理的基础理论以及相应算法也在不断地创新和发展.方向关系推理是空间推理研究领域的重要分支,利用区间代数及矩形代数理论,以物体的极小边界盒(minimum bounding rectangle,简称MBR)为模型,提出了一种基于MBR的主方向关系与矩形代数关系相结合的推理方法.利用该方法,可以将矩形代数良好的计算性质应用于空间方向关系推理中,实现了矩形代数与基于MBR主方向关系的相互转换方法、主方向关系合成及求反方法、主方向关系中凸(convex)关系判定方法及方向关系一致性检验算法.
摘要:语音库裁剪或语音库去冗余,是大语料库语音合成技术的一个重要问题.提出了虚拟不定长替换的概念,以弥补不定长的损失.结合合成使用变体的频度,构建了语音库裁剪算法StaRp-VPA.该算法能够以任意比例裁剪语音库.实验表明:当裁剪率小于50%时,合成自然度几乎没有下降;当裁剪率大于50%时,合成自然度也不会严重降低.
摘要:XML文档作为一种新的数据形式,成为当前的研究热点.XML文档间相似度的计算是XML文档分析、管理及文本挖掘的基础.结构链接向量模型(structuredlink vector model,简称SLVM)是一种综合考虑XML文档结构信息与内容信息进行XML文档相似度量的方法.体现XML文档结构单元关系的核矩阵在结构链接向量模型中扮演着重要角色.为自动捕获XML文档结构单元关系,提出了两种核矩阵的学习算法,分别是基于支持向量机(support vector machine,简称SVM)的回归学习算法和基于矩阵迭代的学习算法.相似搜索实验对比结果表明,基于核矩阵学习方法的XML文档相似度量方法的准确性明显优于其他方法.进一步实验表明,基于矩阵迭代学习的核矩阵学习算法与基于支持向量机的回归学习算法相比,不仅具有更高的准确性,而且所需训练文档更少、计算代价更小.
摘要:提出了视觉跟踪任务中目标动态建模的一种方法.该方法首先针对跟踪序列中的当前帧图像观测进行Haar变换,从而得到图像的过完备特征描述;然后根据Fisher准则,评价每个Haar特征对目标和当前背景的区分能力,目标模型由那些区分能力最强的Haar特征构成.在跟踪过程中,采用卡尔曼滤波算法预测目标下一时刻的可能位置,从而根据目标的图像观测和目标下一时刻可能的位置附近的背景图像观测,对Haar特征的区分能力进行动态评价.通过保留区分能力强的特征,同时淘汰区分能力弱的特征,维护目标模型的强可区分性和低计算复杂性.该方法的主要策略是,在最大程度地保持可区分性的前提下,减少计算的复杂性.实验结果表明,在存在诸多不确定性因素的真实长序列视频上,该跟踪方法能够实时地完成复杂的目标跟踪任务.
摘要:孤立点是不具备数据一般特性的数据对象.划分的方法是通过将数据集中的数据点分布的空间划分为不相交的超矩形单元集合,匹配数据对象到单元中,然后通过各个单元的统计信息来发现孤立点.由于大多真实数据集具有较大偏斜,因此划分后会产生影响算法性能的大量空单元.由此,提出了一种新的索引结构——CD-Tree(cell dimension tree),用于索引非空单元.为了优化CD-Tree结构和指导对数据的划分,提出了基于划分的数据偏斜度(skew of data,简称SOD)概念.基于CD-Tree与SOD,设计了新的孤立点检测算法.实验结果表明,该算法与基于单元的算法相比,在效率及有效处理的维数方面均有显著提高.
摘要:基于频繁模式的关联分类是近年来出现的一种分类方法,该方法利用各类别频繁出现的模式构造分类规则,并对新文本进行分类.但现有关联分类方法应用于文本分类时存在两方面不足:一方面,用以构造分类规则的频繁模式仅考虑特征词在文本中出现与否,从而忽视了出现频度;另一方面,当产生的规则数量较多时,为提高分类效率需要进行规则修剪,修剪后的分类准确性明显降低.为此,提出了基于分类规则树的带词频的频繁模式文本分类方法.研究结果表明,词频的引入可以提高关联分类的准确率;而采用分类规则树可使分类时间明显加快又确保不降低分类质量.这两方面的措施弥补了现有关联分类应用于文本分类的不足.与3种典型文本分类方法比较后发现,在低维特征空间中,关联分类的性能优于Bayes,kNN(k nearest neighbor)和SVM(support vectormachines),因此是一种很有应用前景的文本分类方法.
摘要:在大规模或实时环境要求下,机器学习算法的计算效率非常重要.描述了用于最大熵模型执行系统的一种高效的数据结构及其相关的生成和查找算法.这种数据结构称为稀疏特征树,用于表示特征集合,以提高特征查找(或特征匹配)的速度,从而提高概率计算和执行系统的速度.基本短语识别和词性标注的实验显示,这种新的数据结构的确能够极大地加快最大熵方法执行系统的速度,同时保持空间复杂度不变.
摘要:使用反例压缩算法,从反例中剔除冗余信息,从而使反例易于理解,是目前的研究热点.然而,目前压缩率最高的BFL(brute force lifting)算法,其时间开销过大.为此,提出一种基于悖论分析和增量式SAT(boolean satisfiablilty problem)的快速反例压缩算法.首先,根据反证法和排中律原理,该算法对每一个自由变量v,构造一个SAT问题,以测试v是否能够避免反例.而后对其中不可满足的SAT问题,进行悖论分析,抽取出导致悖论的变量集合.所有不属于该集合的变量,均可作为无关变量直接剔除.同时,该算法使用增量式SAT求解方法,以避免反复搜索冗余状态空间.理论分析和实验结果表明,与BFL算法相比,该算法能够在不损失压缩率的前提下获得1~2个数量级的加速.
摘要:时间序列预测是一类非常重要的问题,但基本上局限于参数不可变问题的研究,而对实际问题中经常出现的更重要的参数可变系统的预测,由于构成几乎所有已有预测技术基础的Taken嵌入定理不再成立,所以这方面的研究成果极少.使用一种将(多)小波变换与反向传播神经网络相结合的新型网络结构--(多)小波神经网络,尝试对参数可变时间序列的预测.因为(多)小波神经网络的误差函数是一个凸函数,这在一定程度上可以避免经典神经网络容易陷入局部极小、收敛速度慢等问题.对著名的Ikeda参数可变系统的实验表明,多小波神经网络的预测性能较单小波神经网络要好,而单小波神经网络的性能较BP网要好.因此,该方法不失为时间可变系统预测的一种好的推荐.
摘要:互联网络中信息量的快速增长使得增量搜集技术成为网上信息获取的一种有效手段,它可以避免固重复搜集未曾变化的网页而带来的时间和资源上的浪费,网页变化规律的发现和利用是增量搜集技术的一个关键.它用采预测网页的下次变化时间甚至变化程度;在此基础上,增量搜集系统还需要考虑网页的变化频率,变化程度和重要性,选择一种最优的任务调度算法来决定不同网页的搜集频率和相对搜集次序,针对网页变化和增量搜集技术这一主题,对最近几年的研究成果作总结,并介绍最新的研究进展.首先论述对网页变化规律的建模、模型参数估计和估计效率等问题;然后介绍几个著名的增量搜集系统,着重分析它们的任务调度算法;最后.从理论上分析和总结增量搜集系统的最佳任务调度算法及其一个基于启发式策略的近似解,并预测其将来的研究趋势.该工作对增量搜集系统的设计和Web演化规律的研究具有参考意义.
摘要:服务组合可以整合网络上现有的多种异构服务,形成新的服务.针对服务组合中服务路径的选择和负载均衡问题,提出了一种自适应的分布式负载均衡算法--LCB(load capacity based algorithm)算法.LCB算法使用服务路由来查找服务和转发数据,使用负载容率(load capacity,简称LC)测度来进行服务副本的选择,从而建立一条适当的组合服务路径.LC测度是对服务器负载的估算,它根据服务器的负载波动信息不断地进行自适应的调整,从而实现多个服务副本之间的负载均衡.与现有的服务组合负载均衡算法相比,LCB算法不需要知道服务器的最大负载量和当前负载信息,而且具有更好的可扩展性,更适用于分布式环境下动态服务副本的组合.模拟实验表明,LCB算法具有良好的负载均衡效果.
摘要:研究了TCP(transmission control protocol)流在多跳无线自组网络中的公平性问题,发现IEEE802.11DCF协议在此环境下会导致严重的不公平性,即部分节点垄断了网络带宽而其他节点被饿死.首先,通过仿真分析了产生TCP流不公平性的原因,指出其根源在于MAC(media access and control)协议的不公平性,同时,TCP的超时机制加剧了不公平性的产生;然后,利用概率模型定量分析了TCP不公平性与MAC协议参数之间的关系,发现TCP流的公平性与TCP报文长度直接相关,并且增加MAC协议初始竞争窗口的大小能够有效提高公平性.据此,提出了一种根据TCP报文长度动态调节初始回退窗口大小的自适应回退MAC协议改进算法.理论分析和仿真表明,该算法在很大程度上可以有效缓解不公平性问题的产生,并且不会引起网络吞吐量的严重降低.