计算机学报杂志

发表咨询:400-808-1731

订阅咨询:400-808-1751

计算机学报杂志 北大期刊 CSCD期刊 统计源期刊

Chinese Journal of Computers

  • 11-1826/TP 国内刊号
  • 0254-4164 国际刊号
  • 3.18 影响因子
  • 1-3个月下单 审稿周期
计算机学报是中国计算机学会;中国科学院计算技术研究所主办的一本学术期刊,主要刊载该领域内的原创性研究论文、综述和评论等。杂志于1978年创刊,目前已被数学文摘、上海图书馆馆藏等知名数据库收录,是中国科学院主管的国家重点学术期刊之一。计算机学报在学术界享有很高的声誉和影响力,该期刊发表的文章具有较高的学术水平和实践价值,为读者提供更多的实践案例和行业信息,得到了广大读者的广泛关注和引用。
栏目设置:研究论文与技术报告、短文、学术通信、学术活动、中国计算机学会学术动态

计算机学报 2018年第09期杂志 文档列表

计算机学报杂志网络技术
机器学习在网络空间安全研究中的应用1943-1975

摘要:随着云计算、物联网、大数据等新兴技术的迅猛发展,数以亿计的网络接入点、联网设备以及网络应用产生的海量数据,给网络空间安全带来了巨大的困难和挑战,传统的安全问题解决方案面对海量数据变得效率低下.机器学习以其强大的自适应性、自学习能力为安全领域提供了一系列有效的分析决策工具,近年来引起了学术界与工业界的广泛关注和深入研究.为此,该文以网络空间安全一级学科为指导,围绕机器学习技术应用于网络空间安全领域的最新研究成果,首先详细阐述了机器学习技术在网络空间安全研究中的应用流程;然后从系统安全、网络安全和应用安全三个层面,着重介绍了机器学习在芯片及系统硬件安全、系统软件安全、网络基础设施安全、网络安全检测、应用软件安全、社会网络安全等网络空间安全领域中的解决方案,重点分析、归纳了这些解决方案中的安全特征及常用机器学习算法.最后总结了现有解决方案中存在的问题,以及机器学习技术在网络空间安全研究中未来的发展方向和面临的挑战.

SDRS:集中与分布控制相结合的弹性多路径路由机制1976-1989

摘要:传统的单播路由协议根据单一路由策略(如最小跳步数、最低代价等)计算出到达目的网络的最短路径.受限于局部视图的不完整性、局部策略的自私性,路由计算结果往往为非最优;同时,数据流传输完全依赖于单条路径,容易产生网络拥塞和由单点故障引起的通信中断.以软件定义网络(SDN)为代表的集中控制架构,通过感知网络状态,从全局视图进行路由计算并下发策略,促使网络路由趋近最优目标.文中提出了软件定义路由系统概念(Software Defined Routing System,SDRS),在分布式路由协议计算的分布路径基础上,将集中控制机理引入到路由控制系统,集中管理器通过最大多路径覆盖树算法计算出无环的集中路径集,并根据编排的策略选择性地把集中路径部署在网络中,从而实现分布与集中路径同时并行传输数据流,达到二者的有机耦合,既保留了原来分布式路由协议的柔性抗毁、快速自愈的能力,又吸收了集中控制的全局优化能力.最后,实现了SDRS原型系统.实验结果表明,在网络拥塞或单点故障时SDRS性能明显优于单播路由协议的性能,分布式路由协议的丢包率为20%时,SDRS系统的丢包率仅为2.94%.

一种混合的基于分区策略的应用层组播恢复算法1990-2002

摘要:应用层组播技术由于依靠终端主机转发组播数据,任意中间节点的退出,都将导致其下游节点中断组播数据的接收,因此构建高效的组播恢复算法是提高组播效率的重要措施之一.针对该问题,该文在充分考虑节点性能异构性的基础上,提出了一种混合的基于分区策略的应用层组播恢复算法HPLR,在该算法中,将节点的服务能力定义为其子孙节点的数目与其根路径长度的比值,再根据节点的服务能力将组播树划分成中心区域和边缘区域,并分别提出了相应的组播恢复算法,以在系统的计算开销和时间开销方面达到平衡.位于中心区域的节点服务能力较强,一旦离开将会造成大面积的节点失联情况的发生.因此,针对中心区域节点失效的情况,该文提出了一种前向式的组播树重构策略HPLR-CD算法,在节点失效之前为其孩子节点寻找备份父节点,受影响节点通过与备份父节点联系以恢复数据传输,避免了在节点失联之后仍需计算备份父节点所产生的时间开销,能够快速进行组播树重构,提高组播的效率和性能.位于边缘区域的节点服务能力较弱,针对边缘区域的节点失效情况,该文提出了一种后向式的组播树重构策略HPLR-MD算法,当节点失效后,受影响节点通过与祖父节点联系以恢复组播连接,以此避免了为所有节点都计算备份父节点所产生的计算开销,并将节点离开事件对组播树所造成的拓扑结构的变化限制在局部范围.仿真实验表明,HPLR算法的累计百分比在同一重加入时延内均大于对比算法NICE以及BFN,并当累计百分比达到100%时,HPLR算法平均所需的重加入时延比BFN算法小0.16 s、比NICE协议小0.24 s.HPLR算法的平均重加入时延分布在1.05 s至1.4 s之间,随着组播规模的增加其波动范围较小,并且在同一组播规模下其值均小于NICE协议和BFN算法.此外,HPLR算法由于采用混合式恢复策略,其在同�

OpenFlow交换机流表溢出问题的缓解机制2003-2015

摘要:在新兴的软件定义网络(Software Defined Networking,SDN)、OpenFlow交换机中,为满足OpenFlow协议宽匹配域的需求,SDN交换设备需要更大的查找表存储容量.当流表溢出时,将导致控制报文数目爆炸性增长、数据包传输时延增大等危害网络正常运行的后果.然而考虑成本因素,高速查找表容量不可能无限增加.即使单纯地增加流表容量,并不能使溢出的概率降低为零,且极不经济.本文分析了网络流量的特征,提出了一种流表共享方法(Flow Table Sharing,FTS),针对流表溢出现象带来的危害,完善了Table-Miss处理机制,有效遏制了由于流表溢出而引发的危害网络正常运行的情况.相比目前的Table-Miss处理方式,FTS对流表溢出情况下控制消息数量和RTT时间的优化都达到两个数量级.此外,该文针对流表扩散方法设计了简单高效的基于OpenFlow组表的随机路由选择算法,系统结构实施简单,可以方便地降级为现行的通用Table-Miss处理模式.

基于网络功能虚拟化的网络试验平台的设计与实现2016-2028

摘要:新型网络设备和新协议进入实用前,最为关键的一步是在真实网络环境下进行彻底地测试验证,通常要购置大量的网络设备搭建接近真实的网络测试环境.然而,对于诸如空天地一体化网络等大型基础设施而言,进行这种测试会面临成本巨大、周期漫长、技术不成熟和不安全等诸多困难.虚拟化技术将物理资源转换为逻辑或虚拟的资源,并使得运行在抽象层之上的用户、应用或管理软件能在不需要掌握底层资源物理细节的条件下管理和使用这些资源.网络功能虚拟化(Network Functions Virtualization,NFV)基于虚拟化技术用软件可以实现网络功能,以代替传统硬件加软件方式实现各种网络功能或网络设备.这些技术为解决上述难题提供了可能.该文利用了NFV具有的功能真实、性能适中和成本低廉等特点,针对网络测试平台面临的重大技术难题提出了测试保真性的概念.测试保真性是指网络试验平台能够提供测试结果的真实性、与网络环境的兼容性和应对多种应用场景的适应性的统称.该文提出了基于网络功能虚拟化(NFV)的网络试验平台(NFV based Network Testing Platform,NFVNTP)的体系结构,它包括了虚拟化平台功能和定制虚拟化网络功能组件两个层次.该文还提出了NFVNTP组件模型,其中包括虚拟化路由组件、虚拟交换机组件、虚拟化网络性能组件和特种网络等几种主要组件,最后给出了一种设计NFVNTP的系统方法.为了便于用软件配置实现或重现NFVNTP,该文还讨论了NFV网络的形式化描述技术.为了验证本文提出的概念与方法,该文构建了一个NFVNTP原型系统.为验证NFVNTP原型系统的有效性,该文给出基于NFVNTP的两个试验例子:一个试验用于对工作在海空环境中的某待测网络设备进行了兼容性测试,在该虚拟海空环境中包括了窄带数据链和同步通信卫星信道;另一个试验对两个软件定义网络(SD

基于局部性原理跳表的内容路由器缓存快速查找机制2029-2043

摘要:当前的互联网流量模型正迅速从端到端通信发展为内容的传播共享.为了适应这种变化,学术界提出了内容中心网络(CCN)的未来网络架构.在内容中心网络中,终端主机根据内容的名字而不是内容所在主机的IP地址进行通信.内容路由器作为底层基础设施,承载着内容请求和内容响应的高速交换的任务.不同于IP路由器的无状态转发模型,内容路由器的数据平面因具备网络缓存功能而更加复杂.尽管网络缓存可以有效减轻网络拥塞,但这样的设计也将额外的状态附加到网络中间节点上,这在一定程度上破坏了网络设计中的“端到端”原则.这些额外状态给路由器的数据平面造成了性能负担,也使内容路由器数据包转发成为当下热门的研究课题.内容路由器包含转发信息库(FIB)、待定兴趣表(PIT)和内容缓存(CS)三个模块.针对基于名字的最长前缀匹配、名字路由表的状态爆炸、待定兴趣表的频繁更新等问题,目前大量研究工作围绕FIB和PIT开展性能优化.然而,尽管CS也存在潜在的性能问题,却较少有工作对其进行讨论.FIB、PIT和CS在内容路由器中以流水线的形式存在,而流水线的处理速度由最慢的流水段决定.因此,为了提高内容路由器的整体性能,有必要首先确定其性能瓶颈,然后进行针对性的优化.在该文中,为了避免盲目的性能优化,我们首先建立了基于开放排队网络的数学模型.通过定量分析,文章发现CS是整个路由器的性能瓶颈.目前,已有工作采用跳表作为CS的数据结构.然而由于其O(log n)的查找复杂度,经典跳表在处理高速网络流量时依然存在性能问题.受到网络流量中广泛存在的时间局部性和空间局部性的启发,我们提出了局部性原理跳表来提升CS的性能.在新的设计中,考虑到新到达的内容请求可能与之前到达的内容请求共享相同的名字前缀,且所请求的内容块通常处于邻

一种基于测量的启发式网络拓扑匹配优化算法2044-2059

摘要:在复杂多变的网络环境下,覆盖网络与物理网络之间普遍存在着拓扑不匹配问题.拓扑不匹配问题会给网络造成不必要的压力,影响系统的效率和可扩展性等.缓解拓扑不匹配问题有助于提高网络寻址效率、减少冗余流量、降低端到端时延.随着计算机和通信技术的不断发展,互联网的规模不断增大,网络节点的地理位置分布范围扩大、移动性增强,极大地增加了网络的动态性,尤其是节点的频繁加入、退出和失效,严重地加剧了大规模网络中覆盖网络与物理网络的不匹配问题.为了缓解该问题,该文提出了一种基于测量的启发式拓扑匹配优化算法(Measurement-based Heuristic Topology Matching Optimization Algorithm,MHTMOA),该算法包括了节点加入、退出和失效算法,用于维护一个或者多个树形覆盖网络.该算法的主要优点在于:(1)通过网络测量技术获取底层物理网络中节点间的跳数信息,简单地利用跳数三角形的边长关系,就可有效地将相近节点逐渐地汇聚;(2)允许对跳数进行粗粒度的比较,并通过三角不等式违反(Triangle Inequality Violation,TIV)感知以及启发式规则选择邻居节点,每个节点最终可获得一个准确度较高的邻居节点集合;(3)在节点频繁加入、退出和失效的场景下,节点之间也能保持高一致性的近邻关系.除了传统的时延伸缩比(Latency Stretch,LS)外,该文还定义了全局拓扑匹配比(Global Topological Matching Ratio,GTMR)和局部邻居节点准确率(Local Neighborhood Accuracy,LNA)这两个量化指标,以便更精确地衡量拓扑一致性.评价结果表明,相较于现有算法,提议算法的GTMR和LNA提升显著,LS降幅可达53%,从而更好地缓解了拓扑不匹配问题.关键词

面向请求预处理的实时按需数据广播调度方法2060-2076

摘要:随着无线技术以及移动计算的飞速发展,实时按需数据广播被广泛应用于一些高度动态的广播环境.用户请求数量的剧增导致上行信道传输的数据量以及服务器每秒响应次数的激增,这使得上行信道带宽成为广播系统的瓶颈,也使得数据服务器面临巨大的并发压力.目前的研究成果少有在考虑上行带宽和服务器压力的同时能保证良好的广播效率.基于此,该文研究了实时按需数据广播请求预处理问题,并且提出了一种请求预处理方法(Request Pre-Process Method,RPPM)以减轻上行信道及服务器并发压力,保证系统广播效率.RPPM包含如下两个算法:(1)针对最大化请求合并问题(Maximum Request Merge problem,MRM),该文提出一种最佳请求合并算法(Optimal Request Merge algorithm,ORM)以合并用户请求,减少请求数量,降低上行信道及服务器压力;(2)针对合并请求的最佳合并请求优先级问题(Optimal Merged Request Priority problem,OMRP),该文提出一种合并请求优先级和剪枝算法(Merged Request Priority and Prune algorithm,MRPP)以综合衡量合并请求优先级,剪枝多余合并请求.基于RPPM,该文提出了一种基于请求预处理的实时按需数据广播全局调度方案以进一步提高系统广播效率.该文以请求失效率(Loss Rate,LR)和平均访问时间(Average Access Time,AAT)作为评价指标,将RPPM同其他最新的调度算法进行了对比实验.同时该文定义请求合并率(Request Merge Rate,RMR)以量化分析RPPM对于上行信道及服务器压力减少的贡献值.大量实验结果表明,RPPM在取得与最新调度算法接近的LR和AAT的同时,能够提高约50%的RMR,即减少约50%的用户请求数量,缓解上行信道以及服务器压力.

基于支持向量机的移动Web浏览性能优化研究2077-2088

摘要:随着网页内容和功能的丰富以及用户体验需求的提升,移动Web浏览中的计算能耗与日俱增.DVFS(Dynamic Voltage and Frequency Scaling)技术在同构多核架构中取得较好的节能效果,但在异构多核架构中,由于系统默认的调度策略没有充分利用低功耗核心,导致高性能核心的工作频率和时间往往高于实际需求,浪费大量电能.而面向异构平台的Linux HMP(Heterogeneous Multi-Processing)技术也没有充分利用异构平台的特性,无法对能效进行有效的提升.针对上述问题,该文面向移动异构平台,提出了一种基于支持向量机的CPU配置预测模型.首先选取500个热门网站主页,分析其主页面的架构(HTML)及样式(CSS)信息,进行特征选择;遍历不同CPU配置渲染网页,记录获得最优加载时间、能耗及EDP对应CPU配置;最后在线下利用支持向量机自主挖掘网页特征同最优配置的内在关系,以此构建移动异构平台的CPU资源调度预测模型.该模型通过分析网页特征,根据不同的优化目标,为渲染引擎分配合适的处理器资源.实验结果显示,同目前最先进的一种线性回归预测模型相比,该文提出的CPU资源调度模型在加载时间、能耗和EDP上的性能得到显著提升.

基于学习自动机理论与稳定性控制的自适应移动无线Ad Hoc网络分簇策略2089-2105

摘要:移动无线Ad Hoc网络(MANET)是一种自组织、自配置的多跳无线网络.它不依赖于预先存在的基础通信设施或中心管理方式.分簇策略已被证明是一种能够模仿固定通信设施并提高网络可扩展性的有效途径.它能够将网络划分成若干子网并且被广泛地用于网络管理、资源管理、层次路由设计、服务质量改善与网络安全检测.在移动无线Ad Hoc网络中,频繁的节点移动、不佳的节点分布会减少簇的生存时间、降低通信质量并增加通信开销,而这些问题势必会降低簇的稳定性.此外,如何在动态环境下有效地调整分簇结构也是我们需要重点考虑的问题.一种高效的分簇策略应该是自适应的并且能够根据当前的网络环境与节点状态预测自身的分簇行为变化.针对上述问题,该文提出了基于学习自动机理论与稳定性控制的自适应MANET分簇策略(LASCA).文中首先推导出簇的期望生存时间模型与簇的可靠性通信度量模型.在此基础上,该文设计了簇首的稳定性度量模型进行簇首选择.该模型能够保证所选择的簇首节点构成的簇具有较好的生存时间且节点分布产生较小的通信开销,同时具有较高的通信可靠性,即提高了分簇的稳定性.针对以往工作并未考虑如何在动态分簇重构过程中降低簇首选择开销的情况,该文随后利用学习自动机理论构建了分簇行为认知模型,给出了节点簇首选择行为与概率函数的映射关系,并通过感知网络环境反馈对概率函数进行更新,从而有效地调整动态环境下的分簇结构,减少了不必要的簇首选择计算开销.实验结果表明,该文提出的分簇策略在稳定性指标方面有很好的表现,有效地降低了簇首节点与成员节点的更新次数,并在一定程度上降低了通信开销与簇首选择的计算开销.其中,在最大移动速度为10 m/s的Random waypoint移动模型中,WCA、FCA、TVCA的簇首节点累积更

一种基于重叠位图的路由查找算法2106-2119

摘要:路由查找是路由器的核心功能之一,可分为基于硬件和基于软件的查找算法两大类.前者使用专用的可并行硬件实现高速的查找性能,比如FPGA算法、GPU算法和TCAM算法.后者可以部署在通用CPU上,具有更高的灵活性、更低的功耗和成本优势,并且可以利用CPU的Cache实现快速查找.因此,基于软件的路由查找算法已成为软件定义网络和网络功能虚拟化中的关键技术之一.尽管软件查找算法具有很大的优势,它也面临着许多新的挑战.首先,当今骨干网路由器的路由表项数目已达到600 K,并且每年保持大约15%的增长率,给路由查找和存储带来了巨大压力.同时,路由表更新速度也逐年稳定增长,并且峰值更新速率已超过10 K/s,这就要求路由查找算法具有高速的更新性能.基础的树结构软件查找算法能够支持快速更新,但是过多的访存次数导致查找速度较低,而且其存储开销已经超过16 MB,远远高于一般路由器中CPU的Cache大小,进一步影响了查找速度.以Lulea算法为代表的传统位图压缩方法虽然降低了数据结构的存储开销,但是会导致更新困难,复杂而低效的更新操作也会在一定程度上影响查找性能.本文提出了一种基于重叠位图压缩的软件路由查找算法,它通过层次遍历构造重叠式位图结构,比具有高压缩率的Lulea算法占用更小的存储空间(提高Cache的命中率,从而进一步提高查找速度).而且,本算法使用位图分割和多种更新优化技术实现快速的增量更新.实验结果表明本算法能够把包含600 K条前缀的路由表压缩到2.3 MB,平均比Lulea算法减少26%的存储空间,只有树结构的1/8左右.而且本算法具有良好的拓展性,从2008年的5.06字节/前缀降低到2016年的3.94字节/前缀.实际流量下,本算法平均查找速度达到111.41 M/s,是Lulea算法查找速度的2.5倍.同时,在保证10~100 K/s的更新速率前提下,实现90~100 M/s的查找速�

基于滑动窗口的分布式轨迹流聚类2120-2133

摘要:随着移动定位技术的蓬勃发展和移动定位设备的广泛应用,衍生了海量移动对象的位置信息.该类位置信息包含地理坐标、速度、方向以及时间戳等信息,被实时采集且持续增加,形成了大规模高速的分布式轨迹数据流.及时、有效地对分布式的轨迹流数据进行在线聚类分析,可以实时获取移动对象的共同移动趋势.由于轨迹数据流固有的海量、高速、偏态分布、时变进化且存在概念漂移的特性以及在线聚类的严格时空开销需求,基于静态轨迹数据的聚类方法不能直接应用于分布式轨迹流的在线聚类分析.分布式的轨迹流聚类研究面临巨大挑战,研究工作仍处于初期探索阶段.为解决上述问题,面对地理上分散采集的轨迹流数据,亟需设计高效的并行聚类分析任务及确保传输开销最小化的通信机制来满足低处理延迟的实时聚类需求.该文首先设计了分布式聚类概要数据结构以实时获取相似轨迹簇的时空特征,继而维护持续进化的分布式轨迹数据流.在此基础上,以减少通信开销提高分布式轨迹流聚类效率为目标,提出了一个在线处理分布式轨迹数据流的增量聚类算法(OCluDTS).OCluDTS方法使用基于滑动窗口模型的两层分布式框架,通过多个远程节点并行聚类局部轨迹流以及协调者节点合并局部聚类结果的方式,确保分布式轨迹流聚类获得与集中式方法相同的精度.此外,为了进一步降低OCluDTS算法的总执行开销,提出了仅限于聚类更新的远程节点传输聚类结果给协调者节点以及基于协调者节点相似性计算的剪枝策略等优化措施.最后,理论分析以及基于真实轨迹数据集的实验结果验证了OCluDTS算法处理大规模分布式轨迹流数据时的有效性和高效性.

移动终端的多维度隐私泄露评估模型研究2134-2147

摘要:移动终端隐私泄露问题日益严重,现有的单一检测方法存在一定的局限性,该文基于应用程序的架构,提出了一种包括静态分析、动态分析和数据分析的多维度检测框架,使用静态分析的结果为动态执行提供指导,有利于提高覆盖率和准确率,并分别针对Android和iOS系统平台进行了泄露行为特征抽取的研究.为量化评估提供了更加全面的泄露事件数据和抽象特征描述,在评估的过程中引入用户对隐私对象的预期关注度,提出了带有主观性的隐私泄露评估模型,通过对Android和iOS应用的测试分析表明,该文的检测框架能够对移动终端应用的隐私泄露事件进行准确高效的检测,评估模型能够反映用户的主观预期,有效弥补了单一检测维度的局限性,为隐私泄露的个性化评估提供了基础理论支撑.

VANETs中基于时空分析的抗合谋Sybil攻击检测方法2148-2161

摘要:在车载自组网中,攻击者通过伪造、偷窃以及与其它合法车辆合谋等方式获得多个网络身份,并利用这些身份虚假交通信息来伪造交通场景,从而造成交通拥堵,甚至引发更严重的交通事故.现有的多数Sybil攻击检测方案主要用于检测伪造身份或偷窃身份的Sybil攻击,很少有检测方案针对合谋Sybil攻击进行研究.另外,检测Sybil攻击需要确保车辆实体在网络通信时仅绑定一个网络身份以防止攻击者扮演多个身份来欺骗其他车辆,这种做法会造成车辆隐私的泄露.为了平衡解决Sybil攻击检测和隐私保护这两个相互矛盾的问题,该文提出了一种基于时空分析的抗合谋Sybil攻击检测方法STARCS(Spatio-Temporal Analysis based Resist Conspiracy Sybil Attack).该方法利用匿名RSU的时间戳标识作为车辆在车载自组网中的身份,通过权威机构TA(Trust Authority)设置的请求信息表记录前一次经过的RSU和时间戳,从而抵御伪造Sybil身份和合谋Sybil身份的产生.文中每个警报事件只允许每个车辆一次带有时间戳标识的警报消息,根据警报信息中包含的标识是否被多个车辆同时使用来检测攻击者与合谋车辆同时使用同一身份的合谋Sybil攻击,并依据标识中嵌入的RSU位置关系标签检测攻击者与远距离车辆合谋的Sybil攻击.由于从时间上身份是否被滥用和空间上身份是否出现不合理位移的情况来检测合谋Sybil攻击,即是从时空关系上抵制和检测合谋Sybil攻击.理论分析和仿真实验表明,该方法不仅能够抵御或检测多种Sybil攻击,而且具有较少的时间开销和通信开销,并通过动态匿名机制保护车辆的身份和位置隐私.

基于局部形状组合模型的人脸对齐2162-2174

摘要:近年来,在研究人脸对齐问题上提出了许多高效、精确的算法.其中,许多算法都采用平均脸作为初始化形状,然后采用不同的方法对人脸的最终形状进行预测,这些算法在人脸表情、头部姿势、光照差异较大的情况下没有很好的鲁棒性.文中提出基于平均脸使用局部形状组合模型来构建一个更准确的人脸(组合脸).局部形状组合模型首先根据人脸基准点的分布特点把人脸形状划分为脸部轮廓、眉毛、眼睛、鼻子、嘴巴这5个部分,然后利用平均脸作为初始化形状,在每个局部形状包含的特征点的邻域内提取特征构建随机森林,对所有训练图片人脸的局部形状进行分类.叶子结点用来存放对应类的局部形状,其它结点存放分类的规则,局部形状组合模型针对5个局部形状总共构建了5个随机森林.对于每一个测试图片人脸,使用平均脸作为初始化形状,遍历随机森林去选择最像测试人脸的局部形状.平均脸和由轮廓决定的人脸其它局部形状的中心以及选择的局部形状将被用来构建组合脸.在大多数情况下,组合脸比平均脸具有更强的表示能力.因此文中提出一个基于组合二值特征的决策机制来选择组合脸和平均脸中更为合适的一个作为后续阶段的初始化形状.决策机制在训练阶段估计出预测结果和组合二值特征的关系,在测试阶段利用训练阶段估计的关系对选择结果进行预测.决策机制是一个二分类问题,可以利用支持向量机来解决.最后以级联回归的方式对该初始化形状进行优化以逼近标准形状.通过采用局部形状组合模型和基于组合二值特征的决策机制,可以防止:(1)最终预测的人脸由于初始化形状不理想而陷入局部最佳;(2)增强本算法对人脸表情、头部姿势、光照差异的鲁棒性.文中算法(LSBC算法)在300-W(68-pts)和Helen(194-pts)数据库下的误差(瞳孔间距归一化误差)分别为4