按提交时间
按主题分类
按作者
按机构
您选择的条件: 计算机应用技术(121)
  • Copula熵:理论和应用

    分类: 统计学 >> 数理统计学 分类: 数学 >> 统计和概率 分类: 计算机科学 >> 计算机应用技术 分类: 信息科学与系统科学 >> 信息科学与系统科学基础学科 提交时间: 2023-02-22

    摘要:统计独立性是统计学和机器学习领域的基础性概念,如何表示和度量统计独立性是该领域的基本问题。Copula理论提供了统计相关关系表示的理论工具,而Copula熵理论则给出了度量统计独立性的概念工具。本文综述了Copula熵的理论和应用,概述了其基本概念定义、定理和性质,以及估计方法。介绍了Copula熵研究的最新进展,包括其在统计学的七个基本问题(结构学习、关联发现、变量选择、因果发现、时延辨识、域自适应和正态性检验等)上的理论应用。讨论了前四个理论应用之间的关系,以及其对应的深层次的相关性和因果性概念之间的联系,并将Copula熵的(条件)独立性度量框架与基于核函数和距离相关的同类框架进行了对比。简述了Copula熵在理论物理学、理论化学、化学信息学、水文学、气候学、气象学、生态学、动物形态学、农学、认知神经学、运动神经学、计算神经学、心理学、系统生物学、生物信息学、临床诊断学、老年医学、精神病学、公共卫生学、经济学、管理学、社会学、教育学、新闻传播学、法学、政治学,以及能源工程、土木工程、交通工程、制造工程、可靠性工程、化学工程、航空航天、电子工程、通信工程、高性能计算、测绘遥感和金融工程等领域的实际应用。

  • 人工智能技术在国有企业数字化转型中的机遇、挑战与实施路线

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-21

    摘要:人工智能技术在国有企业数字化转型过程中将起到关键作用。国资委《关于加快推进国有企业数字化转型工作的通知》中明确指出,要“运用人工智能等新一代信息技术,探索构建适应企业业务特点和发展需求的‘数据中台’、‘业务中台’等新型IT架构模式,加快形成集团级数字技术赋能平台,为业务数字化创新提供高效数据及一体化服务支撑”。本文根据国有企业生产经营特点,分析人工智能技术在数字化转型过程中的机遇与挑战,进而提出了以构建“智能中台”为核心的数字化转型实施路线,为国有企业数字化转型提供行动指南。
     

  • 基于B/S架构的期刊业务办公自动化研究

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:随着期刊出版数字化的到来,采用在线期刊编审管理系统进行网上稿件的征集、投稿、分稿、编辑审稿、专家审稿、
    定稿、查询稿件处理结果、关键字和参考文献审核、组版设置、发排稿件、三级签发、排版校对、清样出片、数据统计、费用管
    理、年终索引等功能。实现期刊编审的流程化控制,提高期刊文章编审的可靠性、透明度。本文介绍了系统实现的过程,包
    括需求分析,系统设计,数据库设计、系统实现进行详细说明。系统运行正常,能够满足期刊业务办公的自动化需求。

  • 基于ACO算法在可重构扫描网络中搜索最优测试链路的应用

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:为了实现在可重构扫描网络中求解对嵌入式仪器测试时的最优测试链路问题,提出了一种基于ACO算法的必测
    点约束最优测试链路求解方法。首先,将扫描网络中的整体元素抽象为计算机可以识别的节点网络结构。其次,针对网络
    中的环路问题,提出“活性”禁忌表,在搜索到必测的节点时释放禁忌表中的节点数据,使得被搜索过的节点能再次被搜索。
    最后,为了能够更好地搜索最优测试链路,引入信息素系数变化因子,将信息素的更新与网络规模结合,以减小信息素更新
    幅度,避免搜索后期信息素浓度过度增强导致陷入局部最优。此外,在链路搜索过程中采用自适应的信息素挥发系数,保
    证算法的收敛速率,提高全局搜索能力。仿真实验结果表明,该算法可以有效地实现可重构扫描网络中必测点最优测试链
    路的求解,与传统ACO算法相比,该算法的搜索效率更高,具有一定的实用性和适用性。

  • 基于本体的轴类零件外圆工序尺寸参数的自动生成方法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:针对轴类零件外圆工序尺寸参数人工选择的低效率和不确定性及相关工艺知识在异构CAPP系统间难以共享与
    传输的问题,提出了一种基于本体的轴类零件外圆工序尺寸参数的自动生成方法。根据轴类零件外圆工序尺寸参数生成
    过程涉及的设计特征分析、加工方案推理、工序尺寸参数选择等过程知识,构建由零件结构层、设计特征层、特征映射层及
    加工特征层组成的知识表示模型。利用网络本体语言OWL对知识模型进行本体表示,构建外圆工序尺寸参数生成的元本
    体模型。采用语义网规则语言SWRL构建与外圆工序尺寸参数生成过程相关的推理规则,设计了外圆工序尺寸参数的自
    动生成算法,利用Jess推理机实现了外圆工序尺寸参数的自动生成,并通过实例验证了该方法的可行性。

  • 一种非均匀图滤波器组的设计方法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:针对图频率分布不均匀的情况,提出一种非均匀图滤波器组的设计方法。根据图频率的分布特性,设计了具备良
    好频率选择特性及顶点域局部特性的非均匀分析滤波器。先用低阶非多项式滤波器近似高阶多项式滤波器,再在给定分
    析滤波器和子带信号的前提下,将重构问题归结成一个最小二乘问题。由于直接求解优化问题会涉及矩阵求逆,为了解决
    在大规模图的情况下计算复杂度高的问题,采用一种预处理梯度法对优化问题进行迭代求解,且能分布式实现。仿真结果
    表明,通过该方法设计的非均匀图滤波器组能实现完全重构,且其分析滤波器具备良好频率选择特性及顶点域局部特性。
    与其他迭代方法相比,该方法具有较快的收敛速度和较低的计算成本。

  • 一种改进雅可比算法的频域临界采样图滤波器组

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:频域临界采样图滤波器组需要对拉普拉斯矩阵进行特征分解,这导致了该框架计算复杂度过高。针对该问题,采
    用改进雅可比算法近似求解该框架的特征矩阵,从而降低计算复杂度。改进的雅可比算法将近似求解特征矩阵的问题归
    结为一个带约束的优化问题,将拉普拉斯矩阵的近似误差作为目标函数,以近似特征矩阵的稀疏正交性作为约束条件,从
    而求解出近似特征矩阵。理论和仿真实验结果表明,近似特征矩阵用于频域临界采样图滤波器组不会改变其完全重构条
    件,且与现有的频域临界采样图滤波组相比,改进的雅可比算法在降低计算复杂度的同时保持了良好的去噪性能。

  • 一种模糊互模拟的局部算法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:为了快速地对模糊迁移系统中给定状态是否满足互模拟关系进行验证,提出了一种模糊互模拟的局部算法。该算
    法将验证与遍历相结合,在对状态是否满足模糊互模拟关系验证的同时,动态地增加状态空间,使得算法只需遍历部分状
    态空间即可完成验证。在部分情况下,尤其是当2个状态不满足模糊互模拟关系时,模糊互模拟的局部算法可以更快地对
    给定状态是否满足模糊互模拟关系进行验证。通过Java实现了模糊互模拟的局部算法和已有全局算法,并进行了比较实
    验。实验结果表明,在给定状态对不满足互模拟关系的情况下,本算法比现有模糊互模拟的全局算法的效率更高。

  • 一种用于交通预测的自适应时空图神经网络

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:交通预测在城市管理及交通规划中具有重要意义。然而,在交通预测任务中,对复杂动态时空依赖关系的建模仍
    然具有极大的挑战性。针对以往复杂的神经网络构架在空间维度上所采用的预定义图结构未包含完整交通数据空间信
    息,且在时间维度上不能很好地捕获交通数据长期依赖关系的问题,提出一种新的时空图神经网络。通过自适应图卷积网
    络(AGCN)自动捕获节点的特定状态以及自动推断不同节点之间的相互依赖关系,提取更完整的交通数据空间特征,再通
    过时空长短期记忆网络(ST-LSTM)中的时间记忆模块来提取交通数据的时间特征,捕获短中长期的时间依赖关系。在
    PeMSD4和PeMSD8数据集上进行了验证,实验结果表明,所提网络相比基线模型能够更好地提升交通预测性能。

  • 基于彩色QR码的信息无损提取隐藏算法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:针对当前信息隐藏算法中秘密图像大多是信息量较小的二值图像或灰度图像,提取的秘密图像是有损的等问题,
    提出一种适用于较大编码容量的彩色QR码的无损提取信息隐藏算法。该算法先对载体图像三通道分解,将三分量分为
    4×8互不重叠的块,通过DCT变换获得分块的低频分量;彩色QR码通过Arnold置乱后,采用Logistic映射加密,将加密
    彩色QR码三通道分解,隐藏于彩色载体图像相应分块的低频分量中,并对DCT隐藏算法中由数据类型转换产生的舍入
    误差进行隐藏,在秘密图像提取过程中用于误差补偿。实验结果表明,该算法有效地完成了彩色QR码的加密隐藏与无损
    提取,具有较好的不可见性及安全性,该法亦适用于普通彩色秘密图像。

  • 基于稀疏优化的异常分布检测方法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-15 合作期刊: 《桂林电子科技大学学报》

    摘要:现代神经网络可能会对来自训练分布之外的输入产生高置信度的预测结果,对机器学习模型构成潜在威胁。检测
    异常分布的输入是在现实世界中安全部署模型的核心问题。基于能量模型的检测方法,直接利用模型提取的特征向量计
    算样本的能量分数,而依赖并不重要的特征可能会影响检测的性能。为了解决该问题,提出了一种基于稀疏优化的损失函
    数。对已经预训练完成的分类模型进行微调,在学习过程中保持模型分类能力的同时,增加正常样本特征的稀疏程度,使
    得正常样本的能量分数降低,正常样本与异常样本之间的分数差异变大,从而提高检测效果。该方法并未引入异常的辅助
    数据集,避免了样本之间相关性的影响。在数据集CIFAR-10和CIFAR-100上的实验结果表明,该方法将检测6个异常数
    据集的平均 FPR 95分别降低了15.02%和15.41%。

  • Comprehensive evaluation of gene sequence encoding methods in deep learning

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-09

    摘要:

    Background: The prediction of genomic structure has become a hot spot in genome research. At present, the prediction method based on deep learning is more effective and accurate than other machine learning algorithms. Since gene sequence data cannot directly enter the deep learning model, the original data need to be encoded and converted into numerical features before model prediction. As a result, different encoding methods may affect final accuracy.Methods: In order to explore the performance of different encoding methods, we compared ten strategies in six deep learning models. We also compared the performance of all methods on independent datasets and models from our laboratory. For all models, we used their original parameters.Results: Dummy encoding, hash encoding, and one-hot encoding perform best in various models. In addition, dummy encoding and one-hot encoding are the best for processing RNA data, while hash encoding is superior to other methods for processing promoter data. Also, when processing part- or full-sequence data, the performance of dummy encoding, hash encoding, and one-hot encoding is similar. Besides that, in sisRNA datasets and prediction models of Arabidopsis and rice, dummy encoding and one-hot encoding achieve higher prediction accuracy.Conclusions: We conclude that the best encoding method varies when the data set changes. One-hot encoding, dummy encoding, and hash encoding are the three best methods for six models. This study fills the gap on sequence encoding methods in deep learning and can provide a valuable reference for the community.

  • CropCircDB: a comprehensive circular RNA resource for crops in response to abiotic stress

    分类: 生物学 >> 生物学其他学科 分类: 计算机科学 >> 计算机应用技术 提交时间: 2023-02-09

    摘要:

    Circular RNA (circRNAs) may mediate mRNA expression as miRNA sponge. Since the community has paid more attention on circRNAs, a lot of circRNA databases have been developed for plant. However, a comprehensive collection of circRNAs in crop response to abiotic stress is still lacking. In this work, we applied a big-data approach to take full advantage of large-scale sequencing data, and developed a rich circRNA resource: CropCircDB for maize and rice, later extending to incorporate more crop species. We also designed a metric: stress detections score, which is specifically for detecting circRNAs under stress condition. In summary, we systematically investigated 244 and 288 RNASeq samples for maize and rice, respectively, and found 38 785 circRNAs in maize, and 63 048 circRNAs in rice. This resource not only supports user-friendly JBrowser to visualize genome easily, but also provides elegant view of circRNA structures and dynamic profiles of circRNA expression in all samples. Together, this database will host all predicted and validated crop circRNAs response to abiotic stress.

  • 基于模范系统同步实现辨识对象与优化控制的方法

    分类: 信息科学与系统科学 >> 控制科学与技术 分类: 计算机科学 >> 计算机应用技术 分类: 工程与技术科学 >> 工程控制论 提交时间: 2022-12-07

    摘要:摘要: 【目的】实践中95 %以上的工业过程控制问题都可以通过PID 控制算法解决. 本文在继承并创新地运用二自由度PID 内模控制技术的基础上, 建立了一种通用控制器优化整定新方法. 【方法】方法中引入模范系统, 离线仿真该模范系统后获得优化模板; 在信号激励实际控制系统的过程中, 用该模板引导特定算法整定PID内模控制参数. 【结果】在无精准对象参数的情况下, 经数次循环迭代后, 可同步地实现对象参数的辨识与控制性能优化. 【结论】此法整定效率高, 便于后期系统在线维护, 减少了对实施人员技术与经验的要求. 所用控制器继承内模控制大时滞控制效果好、鲁棒性强的特点, 兼顾 " 目标跟踪" 与 " 干扰抑制" 两种性能优化. 控制算法结构简单、直观, 易于在原PID 控制系统升级改造或用嵌入式系统软、硬件实现, 便于在生产中推广应用. 【局限与改进方向】受限于传统内模控制的设计要求,对于具有负响应特性的受控对象, 该方法需采用预补偿处理机制方能适用或者寻找新的模范系统模型并研究改进算法.

  • The FAIR Principles: First Generation Implementation Choices and Challenges

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-16 合作期刊: 《数据智能(英文)》

    摘要:“FAIR enough”?... A question asked on a daily basis in the rapidly evolving field of open science and the underpinning data stewardship profession. After the publication of the FAIR principles in 2016, they have sparked theoretical debates, but some communities have already begun to implement FAIR-guided data and services. No-one really argues against the idea that data, as well as the accompanying workflows and services should be findable, accessible under well-defined conditions, interoperable without data munging, and thus optimally reusable. Being FAIR is not a goal in itself; FAIR Data and Services are needed to enable data intensive research and innovation and (thus) have to be “AI-ready” (= future proof for machines to optimally assist us). However, the fact that science and innovation becomes increasingly “machine-assisted” and hence the central role of machines, is still overlooked in some cases when people claim to implement FAIR

  • 多元时间序列上基于深度学习的动态格兰杰因果分析

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-08

    摘要:复杂动力系统研究中的一个重要内容是发现以多元时间序列形式存在的各组成部分间的相互作用关系。因果关系相比于相关关系对系统的本质机制进行了更深入的探索,并以超越简单相关性分析的方式在对复杂动力系统的研究中发挥巨大作用。格兰杰因果关系分析提供了一种强大的时间序列结构发现框架,自提出后被各领域广泛应用,具有重要的研究意义和现实价值。但在诸如人体生理系统这样高度复杂的非线性动力系统中,其因果关系建立在多元、非线性、动态的时间序列上,这对于传统格兰杰因果关系分析方法是很大挑战。为此,本文提出一种基于深度学习的动态格兰杰因果关系分析方法DNNGC,来发现复杂、动态、非线性的多元时间序列间的格兰杰因果关系。DNNGC利用深度学习对复杂非线性关系的建模能力来充分拟合多元时序数据间的非线性关系,通过在原格兰杰因果关系的基础上添加存在时间段实现了动态因果分析,并改进其预测结构使模型空间复杂度从O(n2)降为O(n),以便对现实系统中大规模时间序列上的分析具有更好的可行性。此外,本文还设计了适应格兰杰因果关系的神经网络架构,并在三种典型的格兰杰因果关系存在形式下,对DNNGC的实验结果进行了详细讨论。最后本文将DNNGC应用在人体睡眠期间各生理系统间的分析中,发现了人体潜在的、动态的格兰杰因果关系状况,具有很好的现实意义。

  • 基于图神经网络的子图匹配符号算法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-02 合作期刊: 《桂林电子科技大学学报》

    摘要:子图匹配是图数据分析中的基础问题,具有重要的研究意义。针对子图匹配求解算法存在大量冗余搜索的问题,
    提出了一种基于图神经网络的子图匹配符号算法。该算法利用图神经网络技术聚合节点的邻域信息,得到包含图局部属
    性和结构的特征向量,以该向量作为过滤条件得到查询图的节点候选集C。此外,优化匹配顺序并利用符号ADD操作在
    数据图中构建C 的各个候选区域,减少了子图枚举验证过程中的冗余搜索。实验结果表明,与VF3算法相比,该算法有效
    地提高了子图匹配的求解效率。

  • Ceph存储系统中节点的容错选择算法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-02 合作期刊: 《桂林电子科技大学学报》

    摘要:Ceph分布式系统中的数据分布算法仅将容量作为选择存储节点的标准,并未考虑存储节点的网络状态和节点负
    载。在副本模式下,当三副本中有存储节点并需要修复时,过高的节点负载或者网络负载会导致较大的节点修复时延。针
    对这个问题,给出了一种基于Ceph的节点容错选择(FTNSC)算法。首先利用软件定义网络技术获得实时的网络状态和节
    点负载信息,作为节点选择方法的数据支撑;然后建立综合考虑节点负载信息的多属性决策数学模型来确定主存储节点位
    置;最后通过人工蜂群算法根据与主存储节点之间的网络状态和节点性能得到最优次存储节点。实验结果表明,与现有的
    CRUSH算法相比,该算法在提高数据存储节点性能的同时,将失效数据的修复时延减少2%~29.7%。

  • 基于改进蚁狮算法的虚拟机放置方法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-02 合作期刊: 《桂林电子科技大学学报》

    摘要:虚拟机放置是虚拟机整合过程中的关键步骤,虚拟机放置方法的好坏往往会影响云数据中心的资源使用效率和性
    能,这类问题可以通过建立多目标优化模型来进行求解。当前云数据中心存在能耗高、资源利用率较低以及资源碎片化的
    情况。针对上述情况,提出了一种基于MALO算法的虚拟机放置策略。通过建立多目标多约束的虚拟机放置模型,对能
    耗、资源利用率和资源碎片化3个方面进行优化。并且在蚁狮算法的基础上,通过改进解空间的边界变化策略和蚂蚁随机
    游走的位置选择策略,最后对蚂蚁位置越界进行修正,使得种群的多样性能得到更好保证,这样能更好地跳出局部最优解。
    基于虚拟机放置平台对MALO算法和另外4种虚拟机放置算法进行仿真实验,实验结果表明,相比于蚁狮算法、BRC算
    法、MBFD算法和FFD算法,MALO算法在降低能耗、提高资源利用率以及减少资源碎片化方面有一定的提升效果。

  • 基于最短长链接优先选择的VLSI阵列重构算法

    分类: 计算机科学 >> 计算机应用技术 提交时间: 2022-11-02 合作期刊: 《桂林电子科技大学学报》

    摘要:为了提高超大规模集成逻辑阵列的重构效率,提出一种基于最短长链接优先选择原则的改进算法。该算法从阵列
    2端分别构建逻辑列,直到2条逻辑列相交,则停止构建逻辑列。在2条相交逻辑列作为边界的局部区域内,以从上到下的
    方式寻找每行长链接最短的处理器单元,所选取的处理单元用于构建局部最优的逻辑列。基于上述操作,利用分治思想,
    将新获得的逻辑列作为新的局部区域的边界,依次迭代获得新的局部最优逻辑列。最后,将所得到的局部最优逻辑列连接
    起来,即可获得最终的目标阵列。通过与现有的重构算法的比较分析,验证了算法的高效性。仿真结果表明,在保证逻辑
    阵列规模不变的条件下,相较于现有的重构算法,该算法能够有效减少阵列重构过程中处理器的访问数,并能在一定程度
    上降低重构的运行时间,提高逻辑阵列的重构效率。