说 明 书 摘 要

本申请公开一种齿轮和花键加工智能设计与制造方法及系统,包括:建立混合智能模型,包括大语言模型和本地化小模型;利用混合智能模型进行齿轮和花键的工艺参数设计;构建数字孪生系统,实现虚拟模型与实体设备的实时同步;在数字孪生系统中,利用强化学习技术优化加工齿轮和花键的工艺参数;基于优化后的工艺参数进行加工;应用机器学习技术进行质量检测。本发明还公开了相应的系统。该方法和系统集成了人工智能、数字孪生和机器学习等先进技术,实现了齿轮和花键加工的智能化设计与制造,提高了加工效率和产品质量。

摘 要 附 图

权 利 要 求 书

  1. 一种齿轮和花键加工智能设计与制造方法,其特征在于,包括以下步骤:
    建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
    利用所述混合智能模型进行齿轮和花键的工艺参数的设计;
    构建数字孪生系统,实现虚拟模型与实体设备的实时同步;
    在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数;
    基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
    应用机器学习技术进行所述齿轮和花键的质量检测。
  2. 根据权利要求1所述的方法,其特征在于,所述建立混合智能模型,包括:
    选择大语言模型;
    通过知识蒸馏技术,将所述大语言模型蒸馏出本地化小模型;
    实现所述大语言模型和本地化小模型的对齐。
  3. 根据权利要求2所述的方法,其特征在于,所述实现所述大语言模型和本地化小模型的对齐,包括以下步骤:
    建立动态系统模型,使用状态空间模型描述所述大语言模型到所述本地化小模型的知识转换过程;
    采用Gumbel-Softmax和直通估计器处理知识转换过程中的离散性问题;
    使用多头注意力机制和图神经网络处理知识转换过程中的语义耦合性问题;
    应用深度残差网络和非线性激活函数处理知识转换过程中的非线性问题;
    使用自编码器和稀疏注意力机制处理知识表示的高维性问题。
  4. 根据权利要求1所述的方法,其特征在于,所述构建数字孪生系统,包括:
    建立所述齿轮和花键的虚拟模型;
    开发实时数据采集系统;
    实现虚拟模型与实体设备的实时同步。
  5. 根据权利要求4所述的方法,其特征在于,所述方法还包括:在所述数字孪生系统中应用通用矩阵乘法GEMM 优化技术,包括以下步骤:
    识别所述数字孪生系统中的矩阵运算环节,包括几何变换、有限元分析、动力学仿真和机器学习模型推理;
    对识别出的所述矩阵运算环节实施缓存优化,包括矩阵分块和数据预取;
    在所述矩阵运算环节应用SIMD指令集优化;
    对大规模矩阵运算实施多线程并行化;
    针对有限元分析任务,实现GPU加速;
    开发自适应GEMM优化策略,根据输入数据规模和可用硬件资源动态选择最优的GEMM实现方式。
  6. 根据权利要求1所述的方法,其特征在于,所述利用强化学习技术优化加工所述齿轮和花键的工艺参数的步骤包括:
    建立加工环境模型,定义包括工艺参数在内的状态空间、加工设备可调整参数的动作空间,以及基于加工质量和效率的奖励函数;
    选择DQN模型作为强化学习模型;
    在仿真环境中设计用于估计工艺参数调整的状态-动作值函数;
    在仿真环境中,基于所述状态-动作值函数,对所述强化学习模型进行训练;
    利用训练后的所述强化学习模型优化加工所述齿轮和花键的工艺参数。
  7. 根据权利要求6所述的方法,其特征在于,所述方法还包括以下步骤:
    应用目标网络技术,增强训练过程的稳定性;
    开发多智能体强化学习框架,同时优化多个加工设备的参数;
    集成专家知识,通过引入基于规则的约束来加速学习过程。
  8. 根据权利要求1所述的方法,其特征在于,应用机器学习技术进行所述齿轮和花键的质量检测,包括:
    实时采集所述齿轮和花键的图像;
    利用图像处理算法,在所述齿轮和花键的图像中进行特征提取;
    构建并训练卷积神经网络;
    将提取的特征输入至所述卷积神经网络中,以实现所述齿轮和花键的缺陷检测和分类。
  9. 根据权利要求1所述的方法,其特征在于,还包括以下步骤:
    在所述混合智能模型中开发参数化设计功能,实现齿轮和花键的自动化定制;
    在利用所述混合智能模型进行参数化设计的基础上,集成CAD/CAM系统,实现设计到制造的无缝衔接;
    开发智能调度系统,优化生产流程和资源分配。
    10.一种齿轮和花键加工智能设计与制造系统,其特征在于,包括:
    建立模块,用于建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
    设计模块,用于利用所述混合智能模型进行齿轮和花键的工艺参数的设计;
    仿真模块,用于构建数字孪生系统,实现虚拟模型与实体设备的实时同步;
    优化模块,用于在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数;
    加工模块,用于基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
    检测模块,用于应用机器学习技术进行所述齿轮和花键的质量检测。

说 明 书

一种齿轮和花键加工智能设计与制造方法及系统
技术领域
本发明属于机械加工技术领域,具体涉及一种应用人工智能和数字孪生技术的齿轮和花键加工智能设计与制造方法及系统。
背景技术
齿轮和花键是机械传动系统中的关键部件,其加工精度和效率直接影响着机械设备的性能和可靠性。传统的齿轮和花键加工方法主要依赖于人工经验进行工艺参数设计和调整,存在以下问题:
工艺参数设计效率低:传统方法需要工程师根据经验手动设计工艺参数,耗时长且容易出错。
加工过程优化困难:由于缺乏实时监控和智能优化手段,难以在加工过程中动态调整工艺参数,导致加工效率和质量难以得到有效提升。
质量检测方法滞后:传统的质量检测多采用离线抽检方式,无法实现实时、全面的质量监控,容易造成批量不合格产品的产生。
发明内容
鉴于此,本申请提供一种齿轮和花键加工智能设计与制造方法及系统,解决了现有技术中工艺参数设计效率低、加工过程优化困难、质量检测方法滞后、设计与制造衔接不畅以及数据利用率低的问题。
本申请实施例提供了一种齿轮和花键加工智能设计与制造方法,包括:
建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
利用所述混合智能模型进行齿轮和花键的工艺参数的设计;
构建数字孪生系统,实现虚拟模型与实体设备的实时同步;
在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数;
基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
应用机器学习技术进行所述齿轮和花键的质量检测。
所述建立混合智能模型,包括:
选择大语言模型;
通过知识蒸馏技术,将所述大语言模型蒸馏出本地化小模型;
实现所述大语言模型和本地化小模型的对齐。
所述实现所述大语言模型和本地化小模型的对齐,包括以下步骤:
建立动态系统模型,使用状态空间模型描述所述大语言模型到所述本地化小模型的知识转换过程;
采用Gumbel-Softmax和直通估计器处理知识转换过程中的离散性问题;
使用多头注意力机制和图神经网络处理知识转换过程中的语义耦合性问题;
应用深度残差网络和非线性激活函数处理知识转换过程中的非线性问题;
使用自编码器和稀疏注意力机制处理知识表示的高维性问题。
所述构建数字孪生系统,包括:
建立所述齿轮和花键的虚拟模型;
开发实时数据采集系统;
实现虚拟模型与实体设备的实时同步。
所述方法还包括:在所述数字孪生系统中应用通用矩阵乘法GEMM优化技术,包括以下步骤:
识别所述数字孪生系统中的矩阵运算环节,包括几何变换、有限元分析、动力学仿真和机器学习模型推理;
对识别出的所述矩阵运算环节实施缓存优化,包括矩阵分块和数据预取;
在所述矩阵运算环节应用SIMD指令集优化;
对大规模矩阵运算实施多线程并行化;
针对有限元分析任务,实现GPU加速;
开发自适应GEMM优化策略,根据输入数据规模和可用硬件资源动态选择最优的GEMM实现方式。
所述利用强化学习技术优化加工所述齿轮和花键的工艺参数的步骤包括:
建立加工环境模型,定义包括工艺参数在内的状态空间、加工设备可调整参数的动作空间,以及基于加工质量和效率的奖励函数;
选择DQN模型作为强化学习模型;
在仿真环境中设计用于估计工艺参数调整的状态-动作值函数;
在仿真环境中,基于所述状态-动作值函数,对所述强化学习模型进行训练;
利用训练后的所述强化学习模型优化加工所述齿轮和花键的工艺参数。
所述方法还包括以下步骤:
应用目标网络技术,增强训练过程的稳定性;
开发多智能体强化学习框架,同时优化多个加工设备的参数;
集成专家知识,通过引入基于规则的约束来加速学习过程。
应用机器学习技术进行所述齿轮和花键的质量检测,包括:
实时采集所述齿轮和花键的图像;
利用图像处理算法,在所述齿轮和花键的图像中进行特征提取;
构建并训练卷积神经网络;
将提取的特征输入至所述卷积神经网络中,以实现所述齿轮和花键的缺陷检测和分类。
所述方法还包括以下步骤:
在所述混合智能模型中开发参数化设计功能,实现齿轮和花键的自动化定制;
在利用所述混合智能模型进行参数化设计的基础上,集成CAD/CAM系统,实现设计到制造的无缝衔接;
开发智能调度系统,优化生产流程和资源分配。
本申请实施例还提供一种计算机装置,所述计算机装置包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述齿轮和花键加工智能设计与制造的方法。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行上述齿轮和花键加工智能设计与制造的方法。
本申请实施例还提供一种计算机程序产品,包括计算机指令,其特征在于,该计算机指令被处理器执行时实现上述齿轮和花键加工智能设计与制造的方法的步骤。
本申请实施例还提供一种齿轮和花键加工智能设计与制造系统,包括:
建立模块,用于建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
设计模块,用于利用所述混合智能模型进行齿轮和花键的工艺参数的设计;
仿真模块,用于构建数字孪生系统,实现虚拟模型与实体设备的实时同步;
优化模块,用于在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数;
加工模块,用于基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
检测模块,用于应用机器学习技术进行所述齿轮和花键的质量检测。
本申请具备以下技术效果:
提高工艺参数设计效率:通过混合智能模型,实现了齿轮和花键工艺参数的智能化设计,大幅提高了设计效率。
实现加工过程实时优化:利用数字孪生系统和强化学习技术,实现了加工过程中工艺参数的实时优化,提高了加工效率和质量。
提升质量检测的实时性和准确性:应用机器学习技术进行实时质量检测,显著提高了检测的效率和准确性。
实现设计与制造的无缝衔接:通过集成CAD/CAM系统,实现了从设计到制造的无缝衔接,提高了生产效率。
提高数据利用率:通过数字孪生系统和机器学习技术,实现了加工过程数据的高效利用,支持持续优化和知识积累。
增强系统的适应性和扩展性:通过混合智能模型和多智能体强化学习框架,使系统具有更强的适应性和扩展性,能够应对不同类型的齿轮和花键加工需求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的齿轮和花键加工智能设计与制造方法的流程图;
图2是圆柱齿轮代用滚刀的自动化计算UI界面图;
图3是标准齿轮工线法长度计算的UI界面图;
图4是矩形花键拉刀倒角齿的测量值计算UI界面图;
图5为本发明实施例提供的齿轮和花键加工智能设计与制造系统的模块图;
图6为本发明实施例提供的齿轮和花键加工智能设计与制造系统的结构图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
应当明确,以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目各方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
实施例一
如图1所示,本申请实施例提供了一种齿轮和花键加工智能设计与制造的方法,包括:
[S1] 建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
在本发明中,混合智能模型的建立是实现齿轮和花键加工智能设计与制造的基础。该混合智能模型结合了大语言模型的强大知识表示能力和本地化小模型的高效推理能力,为后续的工艺参数设计提供了智能支持。
[S1.1] 选择大语言模型;
在本实施例中,可以选择如GPT-4、BERT或T5等预训练的大语言模型作为基础。这些模型通过大规模语料库的训练,已经积累了丰富的通用知识和语言理解能力。在齿轮和花键加工领域,这些模型可以理解和生成相关的专业术语、工艺流程描述等内容。
例如,可以选择llama 3模型,它能够理解和生成与齿轮和花键加工相关的复杂描述。通过对llama 3进行微调,可以使其更好地适应齿轮和花键加工领域的特定任务。
[S1.2] 通过知识蒸馏技术,将所述大语言模型蒸馏出本地化小模型;
知识蒸馏技术的目的是将大语言模型中与齿轮和花键加工相关的知识转移到一个更小、更高效的模型中。这一步骤的实现如下:
构建教师-学生模型:将选定的大语言模型作为教师模型,设计一个参数量更少的神经网络作为学生模型(即本地化小模型)。
准备蒸馏数据集:收集大量与齿轮和花键加工相关的文本数据,包括工艺参数描述、加工流程说明等。
蒸馏过程:
a. 将蒸馏数据集输入教师模型(大语言模型),获取其输出概率分布。
b. 将相同的数据输入学生模型(本地化小模型),获取其输出概率分布。
c. 计算教师模型和学生模型输出分布之间的KL散度作为蒸馏损失。
d. 同时考虑学生模型对真实标签的预测损失。
e. 结合蒸馏损失和预测损失,对学生模型进行优化。
迭代优化:重复上述过程,直到学生模型的性能达到预设目标。
例如,可以使用BERT-base作为教师模型,设计一个3层Transformer结构的学生模型。通过上述蒸馏过程,可以得到一个参数量仅为BERT-base 1/10的本地化小模型,但在齿轮和花键加工领域的性能接近于原始大模型。
[S1.3] 实现所述大语言模型和本地化小模型的对齐;
模型对齐的目的是确保本地化小模型能够准确地继承大语言模型中与齿轮和花键加工相关的知识,并在特定任务上达到相近的性能。这一步骤的实现涉及多个技术点,下面详细说明:
[S1.3.1] 建立动态系统模型,使用状态空间模型描述所述大语言模型到所述本地化小模型的知识转换过程;
动态系统模型的建立有助于更好地理解和控制知识转换过程。具体实现如下:

  1. 定义状态向量:用来表示大语言模型和本地化小模型在知识转换过程中的状态,包括模型参数、中间表示等。
  2. 定义转移函数:描述状态如何随时间演化,可以使用神经网络来参数化这个函数。
  3. 定义观测函数:将状态映射到可观测的输出,如模型在特定任务上的性能指标。
    例如,可以使用如下的状态空间模型:
    x(t+1) = f(x(t), u(t)) + w(t)
    y(t) = h(x(t)) + v(t)
    其中,x(t)是t时刻的状态向量,u(t)是控制输入,y(t)是观测输出,w(t)和v(t)分别是过程噪声和观测噪声。f和h分别是转移函数和观测函数,可以用神经网络来实现。
    [S1.3.2] 采用Gumbel-Softmax和直通估计器处理知识转换过程中的离散性问题
    在知识转换过程中,涉及到离散决策,如选择哪些知识单元进行转移。为了使整个过程可微分,采用以下技术:
  4. Gumbel-Softmax(甘贝尔):用于近似离散采样过程。在前向传播时使用Gumbel-Max技巧进行离散采样,在反向传播时使用Softmax函数的连续近似。
  5. 直通估计器(Straight-Through Estimator):在前向传播时使用离散值,但在反向传播时假设使用了连续函数。
    实现示例:
def gumbel_softmax(logits, temperature=1.0):
gumbel_noise = -torch.log(-torch.log(torch.rand_like(logits)))
y_soft = F.softmax((logits + gumbel_noise) / temperature, dim=-1)
y_hard = torch.zeros_like(y_soft).scatter_(-1, y_soft.argmax(dim=-1, keepdim=True), 1.0)
return (y_hard y_soft).detach() + y_soft

具体地,在知识转换过程中,本发明实施例常常需要做出离散的选择,比如决定哪些知识单元应该被转移。然而,这种离散选择在深度学习中会带来梯度计算的问题,因为离散操作通常是不可微的。为了解决这个问题,本发明采用了Gumbel-Softmax和直通估计器这两种技术。
Gumbel-Softmax是一种可以生成近似离散采样的方法,同时保持操作的可微性。它的工作原理是在原始的概率分布中加入随机噪声,然后使用一个温度参数来控制输出的离散程度。当温度接近零时,输出会非常接近真正的离散采样;当温度较高时,输出会更加平滑。
这种方法的优势在于,它在前向传播时可以产生接近离散的输出,而在反向传播时则允许梯度的平滑流动。这就解决了离散选择带来的梯度问题。
直通估计器是Gumbel-Softmax的一个变体。它在前向传播时使用真正的离散值(通过取argmax),但在反向传播时则假装使用了连续的Gumbel-Softmax输出。这种"欺骗"的方式允许梯度能够流过本来不可微的离散操作。
通过结合使用Gumbel-Softmax和直通估计器,本发明实施例能够在知识转换过程中进行离散选择,同时保持整个过程的可微性,从而实现端到端的训练。
[S1.3.3] 使用多头注意力机制和图神经网络处理知识转换过程中的语义耦合性问题;
语义耦合性问题指的是大语言模型中的知识单元之间存在复杂的依赖关系。为了有效地处理这一问题,采用以下技术:
多头注意力机制:允许模型同时关注知识的不同方面,有助于捕捉复杂的语义关系。
图神经网络:将知识表示为图结构,其中节点表示知识单元,边表示单元间的关系。通过消息传递机制,可以更好地处理知识单元间的依赖关系。
实现示例:

class MultiHeadAttention(nn.Module):
def __init__(self, d_model, num_heads):
super().__init__()
self.num_heads = num_heads
self.attention = nn.MultiheadAttention(d_model, num_heads)
def forward(self, query, key, value):
return self.attention(query, key, value)[0]
class GraphConvolution(nn.Module):
def __init__(self, in_features, out_features):
super().__init__()
self.linear = nn.Linear(in_features, out_features)
def forward(self, x, adj):
return torch.matmul(adj, self.linear(x))

这里,本发明实施例定义了一个多头注意力模块和一个图卷积模块。在实际应用中,可以将这些模块组合使用,以捕捉知识单元之间的复杂语义关系。
具体地,在知识转换过程中,不同的知识单元之间往往存在复杂的语义关联和依赖关系。为了有效地捕捉和处理这些关系,本发明结合使用了多头注意力机制和图神经网络。
多头注意力机制的核心思想是允许模型同时关注输入的不同部分或不同的表示子空间。它通过以下步骤工作:
首先,将输入的知识表示投影到多个不同的子空间,形成多个"头"。每个头都会独立地计算注意力。
然后,在每个头内部,计算查询和键之间的相似度,用这个相似度作为注意力权重来加权值。
最后,将所有头的输出合并起来,得到最终的表示。
这种机制的优势在于,它允许模型从多个角度来理解输入的知识,捕捉不同层面的语义关系。
图神经网络则是专门用来处理图结构数据的深度学习方法。在本发明中,本发明实施例将知识表示为一个图,其中节点代表知识单元,边代表单元之间的关系。图神经网络通过以下方式工作:
首先,对于图中的每个节点,收集其相邻节点的信息。
然后,使用这些收集到的信息来更新当前节点的表示。
这个过程会重复多次,使得信息能在图中长距离传播。
通过这种方式,图神经网络能够有效地建模知识单元之间的复杂依赖关系。
多头注意力机制和图神经网络的结合使用,使得本发明实施例的模型能够全面而细致地处理知识转换过程中的语义耦合性问题。多头注意力提供了关注多个语义方面的能力,而图神经网络则提供了处理结构化知识的框架。这种结合极大地增强了模型理解和转换复杂知识的能力,为齿轮和花键加工中的知识迁移和应用奠定了坚实的基础。
[S1.3.4] 应用深度残差网络和非线性激活函数处理知识转换过程中的非线性问题
在知识转换过程中,大语言模型和本地化小模型之间存在复杂的非线性关系。为了有效处理这一问题,本发明应用了深度残差网络和非线性激活函数。
深度残差网络通过添加跳跃连接,允许信息在网络中直接流动,有助于缓解梯度消失问题,使得更深层的网络能够有效学习。在本实施例中,可以在知识转换的各个阶段引入残差块,以增强模型的表达能力。
非线性激活函数则为模型引入了非线性变换能力,使其能够拟合更复杂的函数关系。常用的非线性激活函数包括ReLU、LeakyReLU、GELU等。在本发明中,可以根据具体任务的需求选择合适的激活函数,或者使用参数化的激活函数,如PReLU,以适应不同的非线性特性。
通过深度残差网络和非线性激活函数的结合,本发明能够更好地捕捉大语言模型和本地化小模型之间的复杂非线性关系,提高知识转换的准确性和效率。
举例说明: 假设本发明实施例正在处理齿轮加工中的切削力预测问题。切削力与多个加工参数(如切削速度、进给率、切削深度等)之间存在复杂的非线性关系。
在这种情况下,本发明实施例可以构建一个深度残差网络来建模这种非线性关系:
1.输入层接收各种加工参数。
2.网络中包含多个残差块。每个残差块包含两个卷积层和一个跳跃连接。例如,第一个残差块学习切削速度和进给率之间的交互关系,第二个残差块学习这种交互关系与切削深度之间的further关系。
3.在每个卷积层后,本发明实施例使用ReLU(Rectified Linear Unit)作为非线性激活函数。ReLU能够引入非线性变换,同时保持计算效率。
4.跳跃连接允许网络直接学习参数间的恒等映射,这有助于解决深度网络中的梯度消失问题。
5.最后一层使用线性激活函数,输出预测的切削力。
通过这种方式,本发明实施例的模型能够捕捉切削参数与切削力之间的复杂非线性关系,同时保持良好的训练性能。
[S1.3.5] 使用自编码器和稀疏注意力机制处理知识表示的高维性问题
大语言模型通常具有高维度的知识表示,直接转换到本地化小模型会导致信息冗余和计算效率低下。为解决这一问题,本发明采用自编码器和稀疏注意力机制。
自编码器通过将高维输入压缩到低维潜在空间,然后再重构出原始输入,可以学习到数据的紧凑表示。在知识转换过程中,可以使用自编码器将大语言模型的高维知识表示压缩到一个较低维度的潜在空间,再从这个潜在空间重构出适合本地化小模型的知识表示。
稀疏注意力机制则通过限制注意力的计算范围,减少了计算复杂度,同时保留了长距离依赖的建模能力。在本发明中,可以采用局部敏感哈希或学习式稀疏注意力等方法,使模型能够高效地处理长序列输入,这对于齿轮和花键加工中涉及的长工艺流程描述特别有用。
通过自编码器和稀疏注意力机制的结合,本发明能够有效地处理知识表示的高维性问题,在保留关键信息的同时提高计算效率。
举例说明: 考虑齿轮设计知识的转移问题。大语言模型可能包含大量与齿轮设计相关的高维知识表示,但并非所有知识都与特定的齿轮加工任务相关。
在这种情况下,本发明实施例可以使用自编码器和稀疏注意力机制来处理这个问题:
首先,本发明实施例使用自编码器来压缩知识表示。输入可能是一个包含上千个特征的齿轮设计知识向量。
编码器部分可能包含多个全连接层,逐步将输入压缩到一个较小的潜在空间,比如只有100个维度。
解码器部分则尝试从这个压缩表示重建原始输入。通过训练自编码器最小化重建误差,本发明实施例可以得到一个更紧凑的知识表示。
接下来,本发明实施例在这个压缩表示上应用稀疏注意力机制。例如,如果本发明实施例正在处理一个特定类型的齿轮(如直齿圆柱齿轮),本发明实施例可以设计一个注意力机制,只关注与这类齿轮最相关的知识维度。
具体来说,本发明实施例可以为每个知识维度计算一个注意力分数,但强制大部分分数接近于零。这可以通过在注意力计算中添加L1正则化项来实现。
最后,本发明实施例只使用得到高注意力分数的那些知识维度来指导齿轮的加工过程。
通过这种方法,本发明实施例能够从高维的通用齿轮设计知识中提取出最相关的部分,有效地降低了问题的维度,同时保留了最有价值的信息。这不仅提高了计算效率,还有助于模型更好地聚焦于当前任务最相关的知识。
[S2] 利用所述混合智能模型进行齿轮和花键的工艺参数的设计
在建立了混合智能模型后,本发明利用该模型进行齿轮和花键的工艺参数设计。这一步骤的目的是根据给定的齿轮和花键规格要求,自动生成最优的加工工艺参数。
混合智能模型在工艺参数设计中的应用主要体现在以下几个方面:
首先,大语言模型能够理解和解析复杂的齿轮和花键规格描述,提取关键信息。例如,从"模数为2,齿数为20的直齿圆柱齿轮"这样的描述中,模型可以识别出模数、齿数、齿轮类型等关键参数。
其次,本地化小模型基于提取的关键信息,结合内置的专业知识库,生成初步的工艺参数建议。这些参数包括切削速度、进给量、切削深度等。
然后,混合智能模型会考虑多种因素进行参数优化,如加工效率、表面质量、工具寿命等。模型可以基于历史数据和专家规则,对初步生成的参数进行调整和优化。
最后,模型会生成详细的工艺参数报告,包括各加工阶段的具体参数设置,以及参数选择的依据和预期效果。
通过这种方式,混合智能模型能够快速、准确地为不同规格的齿轮和花键生成优化的工艺参数,大大提高了设计效率和参数质量。
举例:设计一个直齿圆柱齿轮的加工工艺参数
假设本发明实施例需要为一个具有以下规格的直齿圆柱齿轮设计加工工艺参数:
模数:3mm
齿数:30
压力角:20°
材料:42CrMo钢
混合智能模型在这个过程中的应用如下:

  1. 输入解析:
    大语言模型组件首先解析输入的齿轮规格。它理解"直齿圆柱齿轮"的含义,识别出关键参数如模数、齿数、压力角等,并理解42CrMo钢的材料特性。
  2. 初步参数生成:
    本地化小模型基于解析出的信息,结合内置的专业知识库,生成初步的工艺参数建议。例如:
    粗加工切削速度:120 m/min
    精加工切削速度:150 m/min
    粗加工进给量:0.2 mm/rev
    精加工进给量:0.1 mm/rev
    粗加工切削深度:2 mm
    精加工切削深度:0.5 mm
  3. 参数优化:
    混合智能模型考虑多种因素进行参数优化:
    加工效率:模型计算出使用这些参数可以在约2小时内完成加工。
    表面质量:预测的表面粗糙度为Ra 1.6μm。
    工具寿命:预估刀具在这些参数下可以加工约50个齿轮。
    加工精度:预测的齿形误差在6μm以内。
    模型可能会建议略微提高精加工切削速度到160 m/min,以提高效率,同时将精加工进给量降低到0.08 mm/rev,以确保更好的表面质量。
  4. 考虑特殊要求:
    如果有特殊要求,例如需要更高的表面质量,模型会进一步调整参数。它可能建议增加一道超精加工工序,参数如下:
    超精加工切削速度:180 m/min
    超精加工进给量:0.05 mm/rev
    超精加工切削深度:0.1 mm
  5. 生成工艺参数报告:
    最后,模型生成一份详细的工艺参数报告,包括:
    各加工阶段的具体参数设置
    参数选择的依据(如材料特性、加工效率要求等)
    预期效果(如预计的加工时间、表面质量、工具寿命等)
    可能的风险和注意事项(如需要特别注意的加工步骤)
  6. 持续优化:
    在实际加工过程中,如果发现实际效果与预期有偏差,混合智能模型可以根据反馈进行实时调整。例如,如果发现实际的表面粗糙度高于预期,模型可能会建议进一步降低精加工的进给量。
    通过这种方式,混合智能模型能够综合考虑齿轮规格、材料特性、加工要求等多方面因素,快速生成优化的工艺参数,并能根据实际情况进行动态调整,大大提高了齿轮加工的效率和质量。
    [S3] 构建数字孪生系统,实现虚拟模型与实体设备的实时同步
    数字孪生系统的构建是实现齿轮和花键加工过程实时优化的关键。该系统通过创建加工设备和加工过程的虚拟模型,并与实体设备保持实时同步,为后续的参数优化提供了基础。
    [S3.1] 建立所述齿轮和花键的虚拟模型
    虚拟模型的建立包括几个关键步骤。首先,需要对齿轮和花键的几何特征进行精确建模,这可以通过参数化CAD建模技术实现。模型应包含齿形、模数、齿数、压力角等关键参数。
    其次,需要建立材料模型,描述齿轮和花键材料在加工过程中的力学行为。这涉及弹塑性模型、热力学模型等,以准确模拟材料在切削过程中的变形和热生成。
    最后,还需要建立加工过程模型,包括刀具运动轨迹、切削力模型、热传导模型等。这些模型共同构成了完整的虚拟加工过程。
    [S3.2] 开发实时数据采集系统
    实时数据采集系统是连接虚拟模型和实体设备的桥梁。该系统需要从实体加工设备上采集各种实时数据,如切削力、振动、温度、功率等。
    本发明采用多传感器融合技术,综合利用力传感器、加速度传感器、热电偶、功率计等多种传感器,以获取全面的加工状态信息。采集到的数据经过预处理和特征提取后,通过高速网络传输到数据处理中心。
    [S3.3] 实现虚拟模型与实体设备的实时同步
    实现虚拟模型与实体设备的实时同步是数字孪生系统的核心。这一过程涉及数据同步、模型更新和状态预测等多个方面。
    数据同步方面,系统需要将实时采集的数据快速映射到虚拟模型中,更新虚拟模型的状态。这要求系统具有低延迟的数据处理能力和高效的数据映射算法。
    模型更新方面,系统需要根据实时数据不断调整和优化虚拟模型的参数,以确保虚拟模型能够准确反映实际加工状态。这可以通过在线学习算法或自适应滤波技术实现。
    状态预测方面,系统还需要基于当前状态和历史数据,对未来的加工状态进行预测。这可以通过时间序列分析或机器学习模型实现,为工艺参数的实时优化提供依据。
    通过以上步骤,本发明构建的数字孪生系统能够实现虚拟模型与实体设备的实时同步,为后续的工艺参数优化和质量控制奠定了基础。
    此外,在该数字孪生系统中,数字孪生系统在处理齿轮和花键设计时涉及大量的矩阵运算,特别是在以下方面:
    几何变换
    有限元分析
    动力学仿真
    机器学习模型推理
    因此,可以采用通用矩阵乘法(GEMM),优化GEMM可以显著提高整个系统的性能。
    在所述数字孪生系统中应用通用矩阵乘法GEMM 优化技术,具体包括:
  7. 识别数字孪生系统中的矩阵运算环节:
    在数字孪生系统中,矩阵运算广泛存在于多个环节:
    几何变换:用于模拟零件的旋转、平移等操作,通常涉及4x4变换矩阵的乘法。
    有限元分析:涉及大规模稀疏矩阵的求解,如刚度矩阵的运算。
    动力学仿真:包括质量矩阵、阻尼矩阵的计算和求解。
    机器学习模型推理:如全连接层的矩阵乘法运算。
  8. 实施缓存优化:
    矩阵分块:将大矩阵划分为适合缓存大小的子矩阵。例如,对于一个L1缓存为32KB的系统,可以选择32x32的float类型子矩阵(约4KB)。
    数据预取:使用 __builtin_prefetch() 函数(GCC编译器)或 _mm_prefetch() 指令(Intel编译器)来预先加载数据到缓存。
    示例代码片段:
for (int i = 0; i < N; i += BLOCK_SIZE) {
for (int j = 0; j < N; j += BLOCK_SIZE) {
for (int k = 0; k < N; k += BLOCK_SIZE) {
__builtin_prefetch(&C[i][j+BLOCK_SIZE], 1, 1);
// 执行BLOCK_SIZE x BLOCK_SIZE的矩阵乘法
}
}
}
  1. 应用SIMD指令集优化:
    使用AVX-512指令集来并行处理多个浮点数。
    示例代码片段:
#include <immintrin.h>
void gemm_avx512(float *A, float *B, float *C, int N) {
for (int i = 0; i < N; i++) {
for (int j = 0; j < N; j += 16) {
__m512 c = _mm512_loadu_ps(&C[i*N + j]);
for (int k = 0; k < N; k++) {
__m512 a = _mm512_set1_ps(A[i*N + k]);
__m512 b = _mm512_loadu_ps(&B[k*N + j]);
c = _mm512_fmadd_ps(a, b, c);
}
_mm512_storeu_ps(&C[i*N + j], c);
}
}
}
  1. 实施多线程并行化:
    使用OpenMP进行多线程并行化处理。
    示例代码片段:
#include <omp.h>
void gemm_parallel(float *A, float *B, float *C, int N) {
#pragma omp parallel for collapse(2)
for (int i = 0; i < N; i++) {
for (int j = 0; j < N; j++) {
float sum = 0.0f;
for (int k = 0; k < N; k++) {
sum += A[i*N + k] * B[k*N + j];
}
C[i*N + j] = sum;
}
}
}
  1. GPU加速有限元分析:
    使用CUDA进行GPU加速,特别是针对大规模稀疏矩阵运算。
    示例代码片段(CUDA核函数):
__global__ void sparse_matrix_vector_multiply(int *row_ptr, int *col_idx, float *values, float *x, float *y, int N) {
int i = blockIdx.x * blockDim.x + threadIdx.x;
if (i < N) {
float dot = 0;
int row_start = row_ptr[i];
int row_end = row_ptr[i+1];
for (int j = row_start; j < row_end; j++) {
dot += values[j] * x[col_idx[j]];
}
y[i] = dot;
}
}
  1. 开发自适应GEMM优化策略:
    创建一个决策树或查找表,根据输入矩阵的大小和可用的硬件资源选择最适合的GEMM实现。
    示例伪代码:
def select_optimal_gemm(M, N, K, available_memory, num_cores, has_gpu):
if has_gpu and M*N*K > GPU_THRESHOLD:
return gpu_gemm
elif M*N*K < L3_CACHE_SIZE:
return cache_optimized_gemm
elif num_cores > 4 and M*N*K > PARALLEL_THRESHOLD:
return parallel_gemm
else:
return basic_gemm

这个函数会根据输入矩阵的维度(M, N, K)、可用内存、CPU核心数和是否有GPU来选择最优的GEMM实现方式。阈值(如GPU_THRESHOLD、L3_CACHE_SIZE、PARALLEL_THRESHOLD)需要通过实验和性能分析来确定。
示例性地,假设本发明实施例正在模拟一个复杂的齿轮加工过程,其中涉及到大量的矩阵运算。本发明实施例将以齿轮的有限元分析为例,展示GEMM优化的过程。
场景:本发明实施例需要对一个高精度齿轮模型进行应力分析,该模型包含100,000个节点。

  1. 识别矩阵运算环节:
    在有限元分析中,本发明实施例需要解决以下方程:
    K * u = f
    其中K是刚度矩阵(100,000 x 100,000),u是位移向量,f是力向量。
  2. 实施缓存优化:
    假设本发明实施例的CPU有256KB的L2缓存。本发明实施例可以将刚度矩阵K分块为512 x 512的子矩阵,每个子矩阵大约占用1MB(假设使用双精度浮点数)。
    代码示例:
#define BLOCK_SIZE 512
for (int i = 0; i < N; i += BLOCK_SIZE) {
for (int j = 0; j < N; j += BLOCK_SIZE) {
__builtin_prefetch(&K[i][j+BLOCK_SIZE], 1, 1);
// 处理K[i:i+BLOCK_SIZE][j:j+BLOCK_SIZE]子矩阵
}
}
  1. 应用SIMD指令集优化:
    使用AVX-512指令集来并行处理8个双精度浮点数。
    代码示例:
#include <immintrin.h>
void matrix_vector_multiply_avx512(double *K, double *u, double *f, int N) {
for (int i = 0; i < N; i += 8) {
__m512d sum = _mm512_setzero_pd();
for (int j = 0; j < N; j++) {
__m512d k = _mm512_loadu_pd(&K[i*N + j]);
__m512d u_vec = _mm512_set1_pd(u[j]);
sum = _mm512_fmadd_pd(k, u_vec, sum);
}
_mm512_storeu_pd(&f[i], sum);
}
}
  1. 实施多线程并行化:
    使用OpenMP来并行化矩阵-向量乘法。
    代码示例:
#include <omp.h>
void parallel_matrix_vector_multiply(double *K, double *u, double *f, int N) {
#pragma omp parallel for
for (int i = 0; i < N; i++) {
double sum = 0.0;
for (int j = 0; j < N; j++) {
sum += K[i*N + j] * u[j];
}
f[i] = sum;
}
}
  1. GPU加速:
    考虑到刚度矩阵K通常是稀疏的,本发明实施例可以使用CUDA的稀疏矩阵库cuSPARSE来加速计算。
    代码示例:
#include <cusparse.h>
cusparseStatus_t sparse_matrix_vector_multiply_gpu(
cusparseHandle_t handle,
int *rowPtr,
int *colIdx,
double *values,
int nnz,
double *u,
double *f,
int N
) {
cusparseMatDescr_t descr = 0;
cusparseCreateMatDescr(&descr);
cusparseSetMatType(descr, CUSPARSE_MATRIX_TYPE_GENERAL);
cusparseSetMatIndexBase(descr, CUSPARSE_INDEX_BASE_ZERO);
const double alpha = 1.0;
const double beta = 0.0;
return cusparseDcsrmv(handle, CUSPARSE_OPERATION_NON_TRANSPOSE,
N, N, nnz, &alpha, descr, values, rowPtr, colIdx,
u, &beta, f);
}
  1. 自适应GEMM优化策略:
    创建一个决策函数来选择最优的实现方式:
def select_optimal_fem_solver(N, nnz, available_memory, num_cores, has_gpu):
density = nnz / (N * N)
if has_gpu and N > 50000:
return gpu_sparse_solver
elif density < 0.01:
return cpu_sparse_solver
elif num_cores > 16 and N > 10000:
return parallel_dense_solver
else:
return basic_dense_solver

实际应用过程:

  1. 首先,系统识别出有限元分析中的矩阵-向量乘法是关键的计算瓶颈。
  2. 系统检测到刚度矩阵K是一个100,000 x 100,000的稀疏矩阵,非零元素数量约为5,000,000(假设每个节点平均与50个其他节点相连)。
  3. 系统检查可用硬件资源:64GB RAM,32核CPU,1张支持CUDA的GPU。
  4. 调用select_optimal_fem_solver函数:
optimal_solver = select_optimal_fem_solver(100000, 5000000, 64e9, 32, True)
  1. 函数返回gpu_sparse_solver,因为问题规模大且有GPU可用。
  2. 系统使用CUDA的cuSPARSE库实现的gpu_sparse_solver来解决有限元方程。
  3. 在计算过程中,系统持续监控性能指标。如果检测到GPU利用率低或内存瓶颈,系统可能会在下一次迭代中切换到cpu_sparse_solver。
    通过这种方式,本发明实施例的数字孪生系统能够根据具体的问题规模和可用资源,自动选择最优的GEMM实现方式,从而大大提高齿轮有限元分析的效率。这不仅加速了单次分析,还使得系统能够在实际加工过程中进行更频繁的实时仿真和优化,提高了整个齿轮加工过程的精度和效率。
    通过实施这些优化技术,本发明实施例可以显著提高数字孪生系统中矩阵运算的性能,从而提升整个系统的响应速度和效率。这对于实时模拟和优化齿轮和花键的加工过程至关重要。
    [S4] 在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数
    在数字孪生系统构建完成后,本发明利用强化学习技术来动态优化齿轮和花键的加工工艺参数。这一步骤的目的是在实际加工过程中,根据实时反馈不断调整工艺参数,以达到最优的加工效果。
    [S4.1] 建立加工环境模型,定义包括工艺参数在内的状态空间、加工设备可调整参数的动作空间,以及基于加工质量和效率的奖励函数
    加工环境模型是强化学习的基础。在本发明中,状态空间包括当前的工艺参数(如切削速度、进给量、切削深度等)以及从数字孪生系统中获取的实时加工状态(如切削力、振动、温度等)。动作空间则定义了加工设备可调整的参数范围,如切削速度的可调范围、进给量的可调范围等。
    奖励函数的设计至关重要,它直接影响强化学习的优化方向。本发明的奖励函数综合考虑了加工质量(如表面粗糙度、几何精度)和加工效率(如材料去除率、加工时间),以及工具寿命等因素。奖励函数可以表示为这些因素的加权和,权重可根据具体的加工要求进行调整。
    [S4.2] 选择DQN模型作为强化学习模型
    本发明选择Deep Q-Network (DQN,深度Q网络)作为强化学习模型。DQN是一种结合了Q-learning和深度神经网络的强化学习算法,特别适合处理高维状态空间的问题。
    在本实施例中,DQN网络的输入是当前的状态(工艺参数和加工状态),输出是各个动作(参数调整)的Q值。网络结构可以采用多层全连接网络或卷积神经网络,具体结构可根据输入状态的特征进行设计。
    [S4.3] 在仿真环境中设计用于估计工艺参数调整的状态-动作值函数
    状态-动作值函数(Q函数)是DQN的核心,它估计在给定状态下采取某个动作能够获得的长期回报。在本发明中,这个函数用于评估在当前加工状态下,调整某个工艺参数能够带来的长期收益。
    函数的设计需要考虑即时奖励(如当前的加工质量和效率)和未来的奖励(如对工具寿命的影响)。通过在仿真环境中反复试验和学习,DQN能够逐步优化这个状态-动作值函数。
    [S4.4] 在仿真环境中,基于所述状态-动作值函数,对所述强化学习模型进行训练
    训练过程是在数字孪生系统提供的仿真环境中进行的。这个过程包括以下几个关键步骤:
    首先,初始化DQN网络的参数。然后,在每个训练回合中,模型根据当前状态选择一个动作(工艺参数调整),观察环境的反馈(新的状态和奖励),并将这个经验存储在经验回放池中。
    接着,从经验回放池中随机采样一批经验,用这批经验来更新DQN网络的参数。更新过程使用梯度下降法最小化预测的Q值和目标Q值之间的均方误差。
    为了提高训练的稳定性,本发明采用了目标网络技术,即使用一个单独的网络来生成目标Q值,并定期将DQN网络的参数复制到目标网络中。
    [S4.5] 利用训练后的所述强化学习模型优化加工所述齿轮和花键的工艺参数
    训练完成后,将强化学习模型部署到实际的加工系统中。在加工过程中,模型根据实时的加工状态,持续地调整工艺参数。具体来说,模型接收来自数字孪生系统的实时状态信息,然后选择Q值最大的动作,即最优的参数调整方案。
    这种动态优化过程能够适应加工过程中的各种变化,如刀具磨损、材料特性变化等,从而持续保持最优的加工效果。
    示例性地,本发明实施例将以一个齿轮加工的案例来贯穿S4.1-S4.5整个过程。
    [S4.1] 建立加工环境模型,定义包括工艺参数在内的状态空间、加工设备可调整参数的动作空间,以及基于加工质量和效率的奖励函数
    假设本发明实施例正在优化一个直齿圆柱齿轮的加工过程。
  4. 状态空间定义:
    当前切削速度:80-200 m/min
    当前进给量:0.05-0.3 mm/rev
    当前切削深度:0.1-3 mm
    实时切削力:0-2000 N
    实时振动幅度:0-5 mm/s
    实时切削温度:20-300°C
    已加工时间:0-120 min
  5. 动作空间定义:
    调整切削速度:-20, -10, 0, +10, +20 m/min
    调整进给量:-0.05, -0.02, 0, +0.02, +0.05 mm/rev
    调整切削深度:-0.5, -0.2, 0, +0.2, +0.5 mm
  6. 奖励函数设计:
    R = w1 * 质量得分 + w2 * 效率得分 + w3 * 工具寿命得分 w4 * 能耗得分
    其中:
    质量得分:基于表面粗糙度和齿形精度,范围0-100
    效率得分:基于材料去除率,范围0-100
    工具寿命得分:基于预估的刀具磨损,范围0-100
    能耗得分:基于功率消耗,范围0-100
    w1, w2, w3, w4是权重系数,可以根据具体需求调整。
    [S4.2] 选择DQN模型作为强化学习模型
    本发明实施例构建一个DQN模型,其结构如下:
  7. 输入层:7个神经元,对应状态空间的7个参数
  8. 隐藏层1:64个神经元,ReLU激活函数
  9. 隐藏层2:32个神经元,ReLU激活函数
  10. 输出层:15个神经元,对应动作空间的15种可能操作(3个参数各5种调整方式)
    [S4.3] 在仿真环境中设计用于估计工艺参数调整的状态-动作值函数
    本发明实施例的状态-动作值函数Q(s,a)估计在当前状态s下采取动作a能够获得的长期回报。具体实现如下:
  11. 输入当前状态s(包括当前的工艺参数和加工状态)
  12. 对每个可能的动作a(15种参数调整方式),预测Q值
  13. Q值的计算考虑即时奖励和未来可能的奖励:
    Q(s,a) = 即时奖励 + γ * 最大未来奖励
    其中γ是折扣因子,用于平衡即时奖励和未来奖励的重要性
    例如,如果当前状态是切削速度120 m/min,本发明实施例预测增加10 m/min的Q值可能是80,这意味着该动作可能带来一定的长期收益。
    [S4.4] 在仿真环境中,基于所述状态-动作值函数,对所述强化学习模型进行训练
    本发明实施例在数字孪生系统提供的仿真环境中训练DQN模型。训练过程如下:
  14. 初始化:
    DQN网络参数随机初始化
    经验回放池初始化为空
    设置训练回合数为10000
  15. 对于每个训练回合:
    a. 重置仿真环境,获取初始状态
    b. 对于环境中的每一步(最多1000步):
    以ε概率随机选择动作,否则选择Q值最大的动作
    执行选定的动作,观察新的状态和奖励
    将(状态,动作,奖励,新状态)存储到经验回放池
    如果经验回放池大小超过10000,移除最早的经验
    从经验回放池中随机采样64个经验进行学习
    使用目标网络计算目标Q值
    更新DQN网络参数以最小化预测Q值和目标Q值的均方误差
    每100步更新一次目标网络
    c. 如果达到终止条件(如加工完成或出现严重错误),结束当前回合
  16. 在训练过程中,逐步降低ε值,从0.9降到0.1,以平衡探索和利用
    [S4.5] 利用训练后的所述强化学习模型优化加工所述齿轮和花键的工艺参数
    将训练好的DQN模型部署到实际的齿轮加工系统中。
  17. 初始化:设置初始工艺参数(切削速度120 m/min,进给量0.1 mm/rev,切削深度1 mm)
  18. 在加工过程中,每隔5秒:
    a. 从数字孪生系统获取当前状态(包括工艺参数和加工状态)
    b. 将状态输入DQN模型,获取每个可能动作的Q值
    c. 选择Q值最高的动作
    d. 执行选定的动作,调整相应的工艺参数
  19. 实际应用案例:
    初始状态:切削速度120 m/min,进给量0.1 mm/rev,切削深度1 mm,切削力1000 N,振动幅度2 mm/s,温度150°C
    DQN模型预测:增加切削速度10 m/min的Q值最高
    系统执行:将切削速度调整为130 m/min
    5秒后,新状态:切削力降低到950 N,振动幅度略有上升到2.2 mm/s,温度升高到160°C
    DQN模型再次预测:保持当前参数的Q值最高
    系统执行:保持当前参数不变
    这个过程会持续整个加工周期,不断优化工艺参数以达到最佳的加工效果。通过这种方式,强化学习模型能够根据实时的加工状态动态调整工艺参数,适应各种变化,如刀具磨损、材料特性变化等,从而持续保持最优的加工效果。
    [S5] 基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
    在获得优化后的工艺参数后,系统将这些参数应用到实际的加工过程中。这个过程涉及到加工设备的控制和监控。
    首先,优化后的工艺参数被传输到数控系统中,更新加工程序。这包括更新切削速度、进给率、切削深度等参数。
    其次,在加工过程中,数字孪生系统继续监控实际的加工状态,包括切削力、振动、温度等。如果检测到显著偏差,系统会触发新一轮的参数优化。
    最后,加工完成后,系统会记录整个加工过程的数据,包括工艺参数、加工状态、最终产品质量等。这些数据将被用于后续的分析和模型优化。
    此外,本发明实施例还包括如下步骤:
    [S6] 应用机器学习技术进行所述齿轮和花键的质量检测
    质量检测是加工过程的最后一个关键环节。本发明应用机器学习技术来实现自动化、高精度的质量检测。
    [S6.1] 实时采集所述齿轮和花键的图像
    本发明使用高分辨率工业相机来采集齿轮和花键的图像。相机被策略性地布置在加工设备的关键位置,以捕捉齿轮和花键的各个关键特征。图像采集过程中,考虑了光照条件的控制,以确保图像质量的一致性。
    [S6.2] 利用图像处理算法,在所述齿轮和花键的图像中进行特征提取
    图像处理是质量检测的基础。本发明采用多种图像处理技术来提取齿轮和花键的关键特征。这包括边缘检测算法来识别齿形轮廓,霍夫变换来检测圆度,以及纹理分析来评估表面质量。
    特征提取的结果包括几何尺寸(如模数、齿数、压力角等)、表面特征(如粗糙度、光洁度等)以及存在的缺陷(如裂纹、缺口等)。
    [S6.3] 构建并训练卷积神经网络
    本发明使用卷积神经网络(CNN)来进行齿轮和花键的缺陷检测和分类。CNN的结构包括多个卷积层、池化层和全连接层。
    网络的训练数据包括大量标注好的齿轮和花键图像,涵盖了各种的缺陷类型和正常样本。训练过程采用交叉熵损失函数和Adam优化器,并使用数据增强技术(如旋转、缩放、添加噪声等)来增加模型的泛化能力。
    具体地,构建和训练一个专门用于齿轮和花键缺陷检测的CNN模型。以下是详细的过程:
    1.网络架构设计: 本发明实施例设计一个多层的CNN,具体结构如下:
    1.输入层:接受大小为224x224x3的RGB图像
    2.卷积层1:32个3x3卷积核,步长为1,ReLU激活函数
    3.最大池化层1:2x2池化,步长为2
    4.卷积层2:64个3x3卷积核,步长为1,ReLU激活函数
    5.最大池化层2:2x2池化,步长为2
    6.卷积层3:128个3x3卷积核,步长为1,ReLU激活函数
    7.最大池化层3:2x2池化,步长为2
    8.全连接层1:512个神经元,ReLU激活函数
    9.Dropout层:dropout率为0.5
    10.全连接层2:128个神经元,ReLU激活函数
    11.输出层:根据缺陷类型的数量决定神经元个数,使用Softmax激活函数
    2.数据准备:
    1.收集大量的齿轮和花键图像,包括各种可能的缺陷类型(如裂纹、缺口、表面划伤等)和正常样本
    2.对图像进行标注,标明缺陷的类型和位置
    3.将数据集分为训练集(70%)、验证集(15%)和测试集(15%)
    3.数据增强: 为增加模型的泛化能力,本发明实施例对训练数据进行增强:
    1.随机旋转(-15°到15°)
    2.随机水平和垂直翻转
    3.随机调整亮度和对比度(±10%)
    4.添加随机噪声
    4.模型训练:
    1.选择交叉熵作为损失函数
    2.使用Adam优化器,学习率设为0.001
    3.批大小设为32
    4.训练轮数设为100,但设置早停机制,如果连续10轮验证集性能没有提升则停止训练
    5.使用学习率衰减策略,每20轮将学习率降低为原来的一半
    5.模型评估: 在测试集上评估模型性能,计算以下指标:
    1.准确率(Accuracy)
    2.精确率(Precision)
    3.召回率(Recall)
    4.F1分数
    6.模型优化: 根据评估结果,可能需要进行以下优化:
    1.调整网络结构(如增加或减少层数)
    2.修改超参数(如学习率、批大小)
    3.增加训练数据或进一步增强数据
    [S6.4] 将提取的特征输入至所述卷积神经网络中,以实现所述齿轮和花键的缺陷检测和分类
    在实际检测时,系统首先对采集的图像进行预处理和特征提取,然后将提取的特征输入到训练好的CNN中。CNN输出缺陷的类型和位置,或者判定为合格品。
    系统还集成了一个可解释性模块,能够生成热力图来显示网络关注的区域,帮助操作人员理解检测结果。
    通过这种方式,本发明实现了高效、准确的齿轮和花键质量检测,大大提高了检测效率和准确性。
    此外,本发明实施例还包括如下步骤:
    A1. 应用目标网络技术,增强训练过程的稳定性
    目标网络技术是为了解决Q学习在使用神经网络作为函数逼近器时可能出现的不稳定性问题。
    具体包括:
    a. 网络结构:
    主网络(Q网络):用于选择动作和更新
    目标网络:用于计算目标Q值
    b. 更新机制:
    主网络每步都更新
    目标网络参数θ'定期从主网络参数θ复制,频率为每C步:
    θ' ← θ
    c. 损失函数:
    L = (r + γ * max_a' Q'(s', a'; θ') Q(s, a; θ))^2
    其中Q'是目标网络,Q是主网络
    d. 实现示例:
class DQNAgent:
def __init__(self):
self.q_network = self.build_network()
self.target_network = self.build_network()
self.update_target_network()
def update_target_network(self):
self.target_network.set_weights(self.q_network.get_weights())
def train_step(self, state, action, reward, next_state, done):
target = reward
if not done:
target += self.gamma * np.amax(self.target_network.predict(next_state)[0])
target_f = self.q_network.predict(state)
target_f[0][action] = target
self.q_network.fit(state, target_f, epochs=1, verbose=0)
def update_target_if_needed(self, step):
if step % self.target_update_frequency == 0:
self.update_target_network()

A2. 开发多智能体强化学习框架,同时优化多个加工设备的参数
多智能体强化学习允许本发明实施例同时优化多个加工设备,考虑设备间的相互影响。
具体包括:
a. 智能体设计:
每个加工设备作为一个独立的智能体
每个智能体有自己的观察空间、动作空间和奖励函数
b. 环境设计:
全局状态包含所有设备的状态
全局奖励考虑整体生产线的性能
c. 学习算法:使用Multi-Agent DDPG (MADDPG)
d. 网络结构:
每个智能体有自己的Actor网络和Critic网络
Actor网络:输入本地观察,输出动作
Critic网络:输入全局状态和所有智能体的动作,输出Q值
e. 实现示例:

class MADDPGAgent:
def __init__(self, state_size, action_size, agent_num):
self.actor = self.build_actor(state_size, action_size)
self.critic = self.build_critic(state_size * agent_num, action_size * agent_num)
self.target_actor = self.build_actor(state_size, action_size)
self.target_critic = self.build_critic(state_size * agent_num, action_size * agent_num)
def build_actor(self, state_size, action_size):
# 构建Actor网络
def build_critic(self, state_size, action_size):
# 构建Critic网络
def train(self, states, actions, rewards, next_states, dones):
# 训练过程
class MultiAgentEnvironment:
def __init__(self, agent_num):
self.agents = [MADDPGAgent(...) for _ in range(agent_num)]
def step(self, actions):
# 执行动作并返回新的状态、奖励等
def reset(self):
# 重置环境

A3. 集成专家知识,通过引入基于规则的约束来加速学习过程
通过集成专家知识,本发明实施例可以引导强化学习算法更快地收敛到有效的策略。
具体包括:
a. 知识表示:
使用if-then规则表示专家知识
将规则转化为神经网络可解释的形式
b. 约束集成方法:
动作空间约束:限制某些状态下的可选动作
奖励塑造:根据专家规则调整奖励函数
策略初始化:使用专家规则初始化策略网络
c. 实现示例:

class KnowledgeBasedDQNAgent(DQNAgent):
def __init__(self):
super().__init__()
self.expert_rules = self.load_expert_rules()
def load_expert_rules(self):
# 加载专家规则
return {
'safe_speed_range': (50, 200),
'max_feed_rate': 0.5,
'tool_change_interval': 1000
}
def select_action(self, state):
action = super().select_action(state)
return self.apply_expert_constraints(state, action)
def apply_expert_constraints(self, state, action):
if state['tool_wear'] > 0.8:
return 'change_tool'
if action['speed'] < self.expert_rules['safe_speed_range'][0]:
action['speed'] = self.expert_rules['safe_speed_range'][0]
if action['speed'] > self.expert_rules['safe_speed_range'][1]:
action['speed'] = self.expert_rules['safe_speed_range'][1]
if action['feed_rate'] > self.expert_rules['max_feed_rate']:
action['feed_rate'] = self.expert_rules['max_feed_rate']
return action
def compute_reward(self, state, action, next_state):
base_reward = super().compute_reward(state, action, next_state)
if action == 'change_tool' and state['tool_wear'] > 0.8:
base_reward += 10  # 奖励及时更换刀具
return base_reward
def initialize_network(self):
# 使用专家规则初始化网络权重
# 这可能需要一些复杂的映射逻辑

通过这些技术细节的实现,本发明实施例可以:

  1. 使用目标网络来稳定DQN的训练过程,避免Q值估计的剧烈波动。
  2. 利用多智能体框架同时优化多个加工设备,考虑设备间的相互影响和整体生产线的性能。
  3. 集成专家知识来加速学习过程,避免智能体在早期阶段做出明显错误的决策,从而加快收敛速度和提高最终性能。
    这些技术的结合将显著提高本发明实施例的齿轮和花键加工智能设计与制造系统的性能和效率。
    本发明实施例还包括:
    B1. 在混合智能模型中开发参数化设计功能,实现齿轮和花键的自动化定制
    具体包括:
    a. 参数化模型构建:
    使用几何约束和数学方程定义齿轮和花键的关键参数,如模数、齿数、压力角、螺旋角等。
    建立参数间的关系模型,如齿顶高系数与模数的关系、齿根高系数与模数的关系等。
    b. 知识图谱集成:
    构建齿轮和花键设计的知识图谱,包含各种设计规范、材料属性、加工工艺等信息。
    使用图数据库(如Neo4j)存储知识图谱,便于快速查询和推理。
    c. 混合智能模型的应用:
    利用大语言模型理解和解析用户的需求描述。
    使用本地化小模型进行具体的参数计算和优化。
    d. 优化算法集成:
    集成遗传算法、粒子群优化等进化算法,用于在给定约束条件下优化齿轮和花键的参数。
    e. 实现示例:
class ParametricDesignSystem:
def __init__(self):
self.llm = load_large_language_model()
self.local_model = load_local_model()
self.knowledge_graph = load_knowledge_graph()
self.optimization_engine = OptimizationEngine()
def parse_user_requirements(self, user_input):
return self.llm.extract_parameters(user_input)
def generate_initial_design(self, parameters):
initial_design = self.local_model.calculate_initial_parameters(parameters)
constraints = self.knowledge_graph.query_constraints(parameters)
return self.optimization_engine.optimize(initial_design, constraints)
def visualize_design(self, design_parameters):
# 生成3D模型或2D图纸

如图2所示,图2是圆柱齿轮代用滚刀的自动化计算UI界面,可以由混合智能模型生成自动化程序,操作方法:1.输入齿轮参数项(模数、齿数、压力角、螺旋角、分度圆弧齿厚)及畸变位置处直径,2.输入滚刀参数项(模数、压力角)。3.点“计算”得出计算结果(代滚分度圆直径、分度圆弧齿厚及畸变量等 )。4.点“清除”即清除所有输入参数和计算结果,键标自动跳至输入参数“模数”位置处。5.点“退出”即退出该程序,结束程序运行。
图3是标准齿轮工线法长度计算的UI界面,图3的操作方法:1.输入标准齿轮参数(模数、齿数、法向压力角、螺旋角、分圆法向齿厚)。2.输入测量齿数。3.点“计算”得出计算结果(公法线长度 )。4.点“清除”即清除所有输入参数和计算结果,键标自动跳至输入参数“模数”位置处。5.点“退出”即退出该程序,结束程序运行。
图4是矩形花键拉刀倒角齿的测量值计算UI界面,与上述同样的计算方法,可以自动化得到该测量值。
B2. 在利用混合智能模型进行参数化设计的基础上,集成CAD/CAM系统,实现设计到制造的无缝衔接
具体包括:
a. CAD系统集成:
开发API接口,将参数化设计结果自动传输到CAD系统(如SolidWorks、AutoCAD等)。
使用CAD系统的二次开发接口,自动生成3D模型和2D工程图。
b. CAM系统集成:
将CAD模型自动导入CAM系统(如Mastercam、CATIA等)。
基于混合智能模型生成的加工参数,自动生成数控加工程序。
c. 数字孪生集成:
将设计和加工参数同步到数字孪生系统,实现虚拟仿真和优化。
d. 数据交换标准:
使用STEP、IGES等标准格式确保不同系统间的数据交换兼容性。
e. 实现示例:

class IntegratedDesignManufactureSystem:
def __init__(self):
self.parametric_design_system = ParametricDesignSystem()
self.cad_interface = CADSystemInterface()
self.cam_interface = CAMSystemInterface()
self.digital_twin = DigitalTwinSystem()
def design_to_manufacture(self, user_requirements):
# 参数化设计
design_params = self.parametric_design_system.generate_design(user_requirements)
# CAD建模
cad_model = self.cad_interface.create_model(design_params)
# CAM程序生成
cam_program = self.cam_interface.generate_program(cad_model, design_params)
# 数字孪生同步
self.digital_twin.update_model(design_params, cam_program)
return cam_program
class CADSystemInterface:
def create_model(self, params):
# 调用CAD系统API创建模型
class CAMSystemInterface:
def generate_program(self, cad_model, params):
# 调用CAM系统API生成加工程序

B3. 开发智能调度系统,优化生产流程和资源分配
具体包括:
a. 生产建模:
使用离散事件仿真模型表示生产流程。
建立资源模型,包括机器、工人、工具等。
b. 调度算法:
实现混合整数规划(MIP)求解器,用于全局优化。
集成启发式算法(如模拟退火、蚁群算法)用于大规模问题的快速求解。
c. 实时数据集成:
通过物联网(IoT)设备实时采集生产数据。
使用流处理框架(如Apache Flink)处理实时数据流。
d. 预测模型:
集成机器学习模型预测设备故障、生产瓶颈等。
e. 动态调整:
实现动态重调度机制,响应突发事件和计划变更。
f. 可视化界面:
开发基于Web的可视化界面,展示生产计划和实时进度。
g. 实现示例:

class IntelligentSchedulingSystem:
def __init__(self):
self.simulation_model = DiscreteEventSimulation()
self.mip_solver = MixedIntegerProgrammingSolver()
self.heuristic_solver = HeuristicSolver()
self.iot_interface = IoTInterface()
self.ml_predictor = MachineLearningPredictor()
def generate_schedule(self, orders, resources):
initial_schedule = self.mip_solver.solve(orders, resources)
return self.heuristic_solver.refine(initial_schedule)
def update_schedule(self, new_data):
predictions = self.ml_predictor.predict(new_data)
if self.need_reschedule(predictions):
return self.generate_schedule(self.current_orders, self.current_resources)
return self.current_schedule
def run(self):
while True:
new_data = self.iot_interface.get_real_time_data()
self.current_schedule = self.update_schedule(new_data)
self.visualization.update(self.current_schedule)
class IoTInterface:
def get_real_time_data(self):
# 从IoT设备获取实时数据
class MachineLearningPredictor:
def predict(self, data):
# 使用机器学习模型进行预测
class Visualization:
def update(self, schedule):
# 更新Web界面显示

通过这些技术细节的实现,本发明实施例可以:

  1. 实现齿轮和花键的自动化参数化设计,快速响应客户的定制需求。
  2. 无缝集成设计和制造过程,减少人工干预,提高生产效率。
  3. 智能调度生产资源,优化生产流程,提高整体生产线的效率和灵活性。
    实施例二
    如图5所示,本申请实施例还提供了一种齿轮和花键加工智能设计与制造系统50,包括:
    建立模块51,用于建立混合智能模型,所述混合智能模型包括大语言模型和本地化小模型;
    设计模块52,用于利用所述混合智能模型进行齿轮和花键的工艺参数的设计;
    仿真模块53,用于构建数字孪生系统,实现虚拟模型与实体设备的实时同步;
    优化模块54,用于在所述数字孪生系统中,利用强化学习技术优化加工所述齿轮和花键的工艺参数;
    加工模块55,用于基于优化后的所述齿轮和花键的工艺参数,对所述齿轮和花键进行加工;
    检测模块56,用于应用机器学习技术进行所述齿轮和花键的质量检测。

实施例三
本申请实施例还提供一种计算机装置,如图6所示,所述计算机装置包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述齿轮和花键加工智能设计与制造方法。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行上述齿轮和花键加工智能设计与制造方法。
本申请实施例还提供一种计算机程序产品,包括计算机指令,其特征在于,该计算机指令被处理器执行时实现上述齿轮和花键加工智能设计与制造方法的步骤。
上述齿轮和花键加工智能设计与制造系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,还提供一种计算机设备,该计算机设备为上述方法实施例中提到的齿轮和花键加工智能设计与制造系统,其内部结构图可以如图6所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。
其中,该计算机设备的处理器用于提供计算和控制能力,可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。处理器可以包括是一个或多个处理器,例如包括一个或多个中央处理器(central processing unit,CPU),在处理器是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。处理器还可以包括一个或多个专用处理器,专用处理器可以包括GPU、FPGA等,用于进行加速处理。处理器用于调用该存储器中的程序代码和数据,执行上述方法实施例中的步骤。具体可参见方法实施例中的描述,在此不再赘述。
该计算机设备的存储器包括但不限于非易失性存储介质和内存储器。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。
该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。
该计算机设备的通信接口用于与外部的终端通过网络连接通信。
该计算机程序被处理器执行时以实现一种海底地质成像方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,各单元/模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。所显示或讨论的相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,系统或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程系统。该计算机指令可以存储在计算机可读存储介质中,或者通过该计算机可读存储介质进行传输。该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是只读存储器(read至only memory,ROM),或随机存储存储器(random access memory,RAM),或磁性介质,例如,软盘、硬盘、磁带、磁碟、或光介质,例如,数字通用光盘(digital versatile disc,DVD)、或者半导体介质,例如,固态硬盘(solid state disk ,SSD)等。
本公开实施例的系统可执行本公开实施例所提供的方法,其实现原理相类似,本公开各实施例的系统中的各模块所执行的动作是与本公开各实施例的方法中的步骤相对应的,对于系统的各模块的详细功能描述具体可以参见前文中所示的对应方法中的描述,此处不再赘述。
以上所述仅是本公开部分实施场景的可选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本公开的方案技术构思的前提下,采用基于本公开技术思想的其他类似实施手段,同样属于本公开实施例的保护范畴。

说 明 书 附 图
图1

图2

图3

图4

图5

图6