Research on Algorithm of Solving Neutron Equation Based on ResNet-PINN
-
摘要: 物理信息神经网络(PINN)作为一种结合物理知识的深度学习方法,其在求解问题的精度方面存在一定的局限性。为进一步提升PINN模型的求解精度,提出了一种基于残差网络(ResNet)结构改进的PINN模型(ResNet-PINN),详细阐述了ResNet-PINN基本原理和数值计算流程,并将其应用于核领域的中子扩散和输运方程的求解。实验验证表明,ResNet-PINN将堆芯中子扩散方程的求解精度提高了2~10倍,输运方程的求解精度提高了3~6倍,有效解决了PINN模型面临的求解精度局限性问题。
-
关键词:
- 物理信息神经网络(PINN) /
- 残差网络(ResNet) /
- 中子扩散方程 /
- 中子输运方程
Abstract: As a deep learning method integrating physical knowledge, the Physics-Informed Neural Network (PINN) has certain limitations in terms of the accuracy of problem-solving. To further enhance the solution accuracy of the PINN model, an improved PINN model based on the Residual Network (ResNet) structure (ResNet-PINN) is proposed. The basic principle and numerical calculation process of ResNet-PINN are elaborated in detail, and it is applied to the solution of neutron diffusion and transport equations in the nuclear field. Experimental validation has shown that ResNet-PINN improves the solution accuracy of the reactor core neutron diffusion equation by a factor of 2 to 10 times, and enhances the solution accuracy of the transport equation by a factor of 3 to 6 times., effectively solving the solution accuracy limitations faced by the PINN model. -
0. 引 言
近年来,随着高性能计算集群的迅速发展,对中子扩散和输运方程的求解方法研究逐渐成为中子学领域的研究热点,其方程的精确求解对于反应堆工程的堆芯设计、研发以及安全稳定运行支持至关重要。目前,随着人工智能技术的飞速发展,以物理信息神经网络(PINN)[1]为代表的深度学习技术已经成为当下求解复杂偏微分方程的有效手段。
PINN模型已经应用于求解核反应堆物理领域的中子扩散[2-5]和输运方程[6-7],PINN虽然能够较好地拟合解数据,但由于损失函数在训练过程中往往面临着局部最优解和梯度消失等问题,进而影响了计算精度的准确性。在中子学领域中,高精度求解不仅确保核反应堆的安全运行,还可以优化运行效能、最大化燃料利用率,提高经济效益。因此,提高PINN模型的求解精度成为当下研究的重要内容。从文献可知,在图像识别领域,残差网络(ResNet)结构[8-9]在提升计算精度和鲁棒性方面已显示出明显的优势,为进一步解决精度问题提供了思路。实际上,目前尚未有研究将ResNet与PINN相结合用于求解核工程领域的中子学问题,基于此,本文提出将ResNet结构引入PINN模型中,创造性地构建ResNet-PINN模型,并以中子扩散和输运方程为算例进行验证,进而研究ResNet-PINN模型在提高计算精度方面的可行性和有效性。
1. 理论模型
1.1 中子扩散方程
在核反应堆物理分析中,能量为单能且无外源的中子堆芯稳态和瞬态扩散方程分别为:
$$ {\nabla ^2}\varPhi ({\boldsymbol{r}}) + \frac{{{k_\infty }/{k_{{\text{eff}}}} - 1}}{{{L^2}}}\varPhi ({\boldsymbol{r}}) = 0 $$ (1) $$ \frac{1}{{Dv}}\frac{{\partial \varPhi ({\boldsymbol{r}},t)}}{{\partial t}} = {\nabla ^2}\varPhi ({\boldsymbol{r}},t) + \frac{{{k_\infty } - 1}}{{{L^2}}}\varPhi ({\boldsymbol{r}},t) $$ (2) 式中,$\varPhi ({\boldsymbol{r}}) $为在r位置处的中子注量率;$\varPhi ({\boldsymbol{r}},t)$为$t$时刻在$ {\boldsymbol{r}} $位置处的中子注量率;$D$为中子扩散系数;$v$为中子速率;$L$为扩散长度;${k_{{\text{eff}}}}$为有效增殖系数;${k_\infty }$为无限介质增殖系数;${\nabla ^2}$为拉普拉斯算子。
1.2 中子输运方程
在不考虑外源下的离散能群、裂变源/散射源各向同性的单能稳态中子输运方程为积分形式,具体见文献[10]。为简化此方程,将其积分形式的中子输运方程进行微分升阶,变换为关于角注量率积分原函数表示的高阶微分方程,其升阶形式平板和球几何方程分别为:
$$ \begin{split} & \mu \frac{{\partial {F_0}(x,\mu )'}}{{\partial x}} + {\varSigma _{\text{t}}}(x){F_0}(x,\mu )' \\ &\qquad\quad = \frac{1}{2}\left[ {{\varSigma _{\text{s}}}(x) + \frac{{\nu (x){\varSigma _{\text{f}}}(x)}}{{{k_{{\text{eff}}}}}}} \right]{F_0}(x,1) \end{split} $$ (3) $$ \begin{split} & \mu \frac{{\partial {F_0}(h,\mu )'}}{{\partial h}} + \frac{{1 - {\mu ^2}}}{h}\frac{{\partial {F_0}(h,\mu )'}}{{\partial \mu }} + {\varSigma _{\text{t}}}(h){F_0}(h,\mu )' \\ &\qquad = \frac{1}{2}\left[ {{\varSigma _{\text{s}}}(h) + \frac{{\nu (h){\varSigma _{\text{f}}}(h)}}{{{k_{{\text{eff}}}}}}} \right]{F_0}(h,1) \end{split} $$ (4) 式中,$x$为平板几何下的坐标位置;$h$为球几何下的坐标位置;$\mu $为对应坐标下的方向余弦;$ {\varSigma _{\mathrm{t}}} $为总反应截面;${\varSigma _{\mathrm{s}}}$为散射截面;${\varSigma _{\mathrm{f}}}$为裂变截面;$\nu $为每次裂变放出的平均中子数;${F_0}(x,\mu )$为$x$位置处的关于角度变量的中子角注量率积分原函数;${F_0}(h,\mu )$为$h$位置处的关于角度变量的中子角注量率积分原函数,其详细推理过程见文献[6]。
2. 基于ResNet-PINN模型的中子方程求解方法
Raissi等[1]提出的PINN是一种结合物理方程知识的神经网络方法,该方法通过将物理信息融入机器学习框架,使得物理方程的信息也能够参与到神经网络的训练中。为进一步研究提升PINN模型预测精度的新方法,引入ResNet结构构建ResNet-PINN模型,ResNet-PINN与PINN的不同之处在于引入了残差块,而这些残差块通过跨层连接,有助于缓解深层网络中的梯度消失问题,使得神经网络能够更深层次地训练,从而提高神经网络的训练效果和预测精度。
首先定义一个残差块(图1)。通过对残差块的输入X和输出值F(X)共同经过激活函数作用来学习残差,其最终的输出Y由输入和学习到的残差相加得到,具体表示为:
$$ Y = \sigma [X + F(X)] $$ (5) $$ F(X) = {W_2}\sigma ({W_1}X + {b_1}){\text{ + }}{b_2} $$ (6) 式中,X、Y分别为残差块的输入和输出;${W_1}$、${W_2}$分别为残差块第1层和第2层的权重;${b_1}$、${b_2}$分别为残差块第1层和第2层的偏置;$\sigma $为激活函数;$F(X)$为第1隐藏层的输出值。
在ResNet-PINN模型中,求解中子方程解的问题实际被转化为了损失函数优化问题,并通过搭建全连接的前馈神经网络$ N({\boldsymbol{x}}) $来拟合中子注量率函数$ \varPhi ({\boldsymbol{x}}) $。在网络优化训练过程中,用于优化的损失函数包括3部分:控制方程残差${F_{{\text{f-loss}}}}$、边界条件残差${F_{{\text{b-loss}}}}$和初始条件残差${F_{{\text{c-loss}}}}$。假设$ {{\boldsymbol{x}}^i} $为控制方程内的几何空间向量,$ N\mathrm{_f} $为所选取的内部点数量,其${F_{{\text{f-loss}}}}$计算式为:
$$ {F_{{\text{f-loss}}}} = \frac{1}{{{N_{\text{f}}}}}{\sum_iF{{[{{\boldsymbol{x}}^i},N({{\boldsymbol{x}}^i}),\nabla N({{\boldsymbol{x}}^i}),{\nabla ^2}N({{\boldsymbol{x}}^i})]}^2}} $$ (7) 同样地,设$ {\boldsymbol{x}}_{\mathrm{b}}^j $和$ {\boldsymbol{x}}_{\mathrm{c}}^k $分别为边界和初始条件上的几何空间向量,$ {N_{\text{b}}} $、$ {N_{\text{c}}} $为所选取的边界和初始点的数量。对边界条件值$ {K_{\text{b}}}({\boldsymbol{x}}_{\text{b}}^j) $与初始条件值$ {K_{\text{c}}}({\boldsymbol{x}}_{\text{c}}^k) $有损失残差项,表达式分别为:
$$ {F_{{\text{b-loss}}}} = \frac{1}{{{N_{\text{b}}}}}{{\sum_j[N({{\boldsymbol{x}}_{\text{b}}^j}) - {K_{\text{b}}}({{\boldsymbol{x}}_{\text{b}}^j})]^2} } $$ (8) $$ {F_{{\text{c-loss}}}} = \frac{1}{{{N_{\text{c}}}}}{{\sum_k[N({{\boldsymbol{x}}_{\text{c}}^k}) - {K_{\text{c}}}({{\boldsymbol{x}}_{\text{c}}^k})]^2} } $$ (9) 由于各损失函数的数值和收敛速度不同,ResNet-PINN通过引入权重系数$\alpha $来平衡不同损失项在迭代收敛过程中的贡献,从而使神经网络模型在训练优化过程中能够有效满足各损失项的要求,促进更快速地收敛至最优值[6]。本文$\alpha $的选取策略是在训练初期设置不同的$\alpha $值,并通过实验选取损失函数下降最快的参数进行后续训练。由于神经网络具有一定的不可解释性,不同问题通常有不同的最优参数值,主要基于实验过程进行选择。最终的损失函数表达式为:
$$ {F_{{\text{all-Loss}}}} = {F_{{\text{f-loss}}}} + \alpha ({F_{{\text{b-loss}}}} + {F_{{\text{c-loss}}}}) $$ (10) 最后,通过不断训练优化各参数使得$ {F_{{\text{all-Loss}}}} $最小化并趋近于0,此时神经网络的输出即为方程的近似解。
3. 方程求解验证
3.1 一维平板中子扩散方程
考虑临界状态下的扩散方程时,平板的中子注量率解析解为$\varPhi (x) = C \cdot \cos (x \cdot {\text{π}}/a)$,这里几何参数$C$为常数,$a$为平板厚度。在方程的求解过程中,采用文献[10]中提出的特征值加速收敛方法,将$\varPhi (0) = 0.5$作为加权损失函数组成部分进行训练。模型的超参数设置为:$a = 1{\text{ m}}$,$C = 0.5$,网络深度$l = 8$,隐藏层的神经元个数$s = 64$,$\alpha = 100$,网格点通过拉丁超立方抽样(LHS)生成${N_{\text{f}}} = 3000$个内部配置点数,并均匀采取${N_{\text{b}}} = 100$个作为边界数据点。训练过程使用Adam优化器进行3500次迭代,学习率设置为0.001,激活函数选择双曲正切(tanh)函数。本文选择均方误差(MSE)作为神经网络模型预测精度的评价指标,具体计算式为:
$$ {\text{MSE}} = \frac{1}{N}\sum\limits_{i = 1}^N {{{\left| {\varPhi ({x_i},{t_i}) - {\varPhi _{{\text{prediction}}}}({x_i},{t_i})} \right|}^2}} $$ (11) 式中,$({x_i},{t_i})$为测试集的采样点;$\varPhi ({x_i},{t_i})$为求解的中子注量率准确值;${\varPhi _{{\text{prediction}}}}({x_i},{t_i})$为中子注量率的模型预测值。
PINN模型在稳态中子扩散模型中的MSE为6.8813×10−9,而ResNet-PINN模型的MSE为7.2698×10−10,计算结果表明,ResNet-PINN模型在精度上显著提高,将预测精度提升了10倍左右。图2a展示了ResNet-PINN模型训练出的预测值和真实值的对比,可明显看出神经网络学习到的预测解与真实解吻合较好,而图2b中绝对误差分布不均匀,这是由于神经网络在训练过程中的随机性导致的。
3.2 一维瞬态中子扩散方程
求解一维瞬态中子扩散方程,如式(2)所示,瞬态一维平板扩散方程解析解见文献[11],方程参数设置为:$v = 2.2 \times {10^3}{\text{ m/s}}$;$D = 0.211 \times {10^{ - 2}}{\text{ m}}$;$ L^{2}=2.1037\times10^{-4}\text{ m}^{\text{2}} $;${k_\infty } = 1.0041$;$a = 1{\text{ m}}$。
这里初始条件选取为$\cos ({\text{π}} \cdot x/a) - 0.4\cos (2{\text{π}} \cdot x/ a) - 0.4$。在选取的时空区域$x \in [ - 0.5,0.5]$和$t \in [0,0.01]$内,利用 LHS生成${N_{\text{f}}} = 3000$个内部配置采样数据,同时均匀选取${N_{\text{b}}} = 100$个边界值和${N_{\text{c}}} = 100$个初始值数据。优化器采用Adam-L-BFGS,先使用Adam优化器迭代3000次,学习率设置为0.001,然后利用L-BFGS优化器进行调优,直到损失函数不再下降,其余参数的选取与3.1节中的一致。
图3展示了ResNet-PINN模型求解瞬态中子扩散方程时,在不同t时刻下真实值与预测值的对比,可明显看出神经网络模型学习到的预测解与真实解拟合得较好。通过实验可知,PINN瞬态中子扩散模型的MSE为1.3882×10−8,而ResNet-PINN模型的MSE为7.1570×10−9,相比之下,PINN模型在精度上明显低于ResNet-PINN模型,ResNet-PINN模型将预测精度提高了约2倍。
3.3 升阶形式平板几何中子输运方程
针对式(3)描述的平板几何单群输运问题,设平板材料特征为${\varSigma _{\mathrm{t}}} = 0.050{\text{ c}}{{\text{m}}^{ - 1}}$,${\varSigma _{\text{s}}} = 0.030{\text{ c}}{{\text{m}}^{ - 1}}$,$\nu {\varSigma _{\text{f}}} = 0.022{\text{5 c}}{{\text{m}}^{ - 1}}$,平板两侧为真空边界条件。按文献[12]理论,本问题中临界半厚度$b = 66.{\text{00527544 cm}}$,此时${k_{{\text{eff}}}} = 1$。
在求解平板几何输运方程时,除文献[6]提出的特征值约束条件外,原函数定解约束式也作为加权损失函数组成部分进行训练,具体的损失函数及样本生成方式见表1。模型的超参数设置为:$l = 14$,$s = 64$,$\alpha = 20$,激活函数选用tanh。优化器采用Adam-L-BFGS,先使用Adam优化器迭代7000次,学习率设置为0.0001,接着利用L-BFGS进行调优,直到损失函数不再下降。
表 1 平板几何机器学习损失函数及样本生成方式Table 1. Loss Function and Sample Generation Method for Machine Learning in Planar Geometry损失函数来源类型 约束形式 样本域 样本点个数 生成方式 控制方程 式(5) $ -b\le x\le b,-1\le \mu \le 1 $ 9000 LHS抽样分布 边界条件 $ F(x,\mu {)}^{\prime }\ge 0 $ $ -b\le x\le b,-1\le \mu \le 1 $ 9000 LHS抽样分布 $ x=b,-1\le \mu \le 0,F(x,\mu {)}^{\prime }=0 $ $ x=b,-1\le \mu \le 0 $ 200 等间距分布 $ x=-b,0\le \mu \le 1,F(x,\mu {)}^{\prime }=0 $ $ x=-b,0\le \mu \le 1 $ 200 等间距分布 原函数定解约束 $ \mu =-1,{F}_{0}(x,-1)=0 $ $ -b\le x\le b,\mu =-1 $ 200 等间距分布 特征值约束 $ {F}_{0}(0,1{)}^{\prime }=0.2 $ $ x\in \left\{0,0\right\} $ 1 固定 $ {F}_{0}(0,-1{)}^{\prime }=0.2 $ $ \mu \in \left\{-1,1\right\} $ 1 固定 通过实验可得,PINN模型的MSE为1.7399×10−5,而ResNet-PINN模型的MSE为2.9178×10−6,实验数据表明,ResNet-PINN模型在提高精度方面具有一定的可行性,其在PINN模型的基础上将预测精度提高了近6倍。
3.4 升阶形式球几何中子输运方程
针对式(4)描述的球几何单群单材料区域问题,其材料特性同3.3节,由文献[12]理论可知,归一化球几何半径$R = 145.{\text{5436358 cm}}$,此时系统为临界状态,${k_{{\text{eff}}}} = 1$。
在求解球几何中子输运方程时,除文献[6]提出的特征值约束条件外,原函数定解约束式也应作为加权损失函数组成部分进行训练,具体的损失函数及样本生成方式见表2。模型的超参数设置为:$l = 12$,$s = 32$,$\alpha = 20$。优化器采用Adam-L-BFGS,先使用Adam优化器迭代5000次,学习率设置为0.0001,随后使用L-BFGS进行调优,直到损失函数不再下降。
表 2 球几何机器学习损失函数与样本生成方式Table 2. Loss Function and Sample Generation for Machine Learning in Spherical Geometry损失函数来源类型 约束形式 样本域 样本点个数 生成方式 控制方程 式(7) $ 0\le h\le R,-1\le \mu \le 1 $ 3000 LHS抽样分布 边界条件 $ F(h,\mu {)}^{\prime }\ge 0 $ $ 0\le h\le R,-1\le \mu \le 1 $ 3000 LHS抽样分布 $ h=R,-1\le \mu \le 0,F(h,\mu {)}^{\prime }=0 $ $ h=R,-1\le \mu \le 0 $ 100 等间距分布 原函数定解约束 $ \mu =-1,{F}_{0}(h,-1)=0 $ $ 0\le h\le R,\mu =-1 $ 100 等间距分布 特征值约束 $ {F}_{0}(0,\mu {)}^{\prime }=0.5 $ $ h=0,-1\le \mu \le 1 $ 100 等间距分布 通过实验验证,PINN模型的MSE为1.7987×10−4,而ResNet-PINN模型的MSE为5.5023×10−5,相较而言,ResNet-PINN模型的预测精度更高,其预测精度比PINN模型高3倍左右,也一定程度上证明了ResNet结构在增强PINN模型性能方面的有效性。
4. 结 论
本文提出了一种基于ResNet结构改进的PINN模型,即ResNet-PINN,并成功将其应用于中子扩散和输运方程的求解。实验结果表明,与经典的PINN模型相比,ResNet-PINN在求解精度方面取得了显著提升,将扩散方程的预测精度提高了2~10倍,输运方程的求解精度提高了3~6倍。这一方法不仅证明了ResNet结构在增强PINN性能方面的潜力,同时为今后求解复杂几何多群多维扩散问题、复杂能群中子输运问题等一系列更加复杂的中子学偏微分方程提供一种更高效、更精确的方法。未来将进一步优化模型结构和算法,并结合实验数据和前沿技术,如量子计算和大数据分析,进一步增强模型的可靠性和性能,从而推动ResNet-PINN在应对更复杂物理问题方面的应用,为科学研究提供更为高效、精准的解决方案。
-
表 1 平板几何机器学习损失函数及样本生成方式
Table 1. Loss Function and Sample Generation Method for Machine Learning in Planar Geometry
损失函数来源类型 约束形式 样本域 样本点个数 生成方式 控制方程 式(5) $ -b\le x\le b,-1\le \mu \le 1 $ 9000 LHS抽样分布 边界条件 $ F(x,\mu {)}^{\prime }\ge 0 $ $ -b\le x\le b,-1\le \mu \le 1 $ 9000 LHS抽样分布 $ x=b,-1\le \mu \le 0,F(x,\mu {)}^{\prime }=0 $ $ x=b,-1\le \mu \le 0 $ 200 等间距分布 $ x=-b,0\le \mu \le 1,F(x,\mu {)}^{\prime }=0 $ $ x=-b,0\le \mu \le 1 $ 200 等间距分布 原函数定解约束 $ \mu =-1,{F}_{0}(x,-1)=0 $ $ -b\le x\le b,\mu =-1 $ 200 等间距分布 特征值约束 $ {F}_{0}(0,1{)}^{\prime }=0.2 $ $ x\in \left\{0,0\right\} $ 1 固定 $ {F}_{0}(0,-1{)}^{\prime }=0.2 $ $ \mu \in \left\{-1,1\right\} $ 1 固定 表 2 球几何机器学习损失函数与样本生成方式
Table 2. Loss Function and Sample Generation for Machine Learning in Spherical Geometry
损失函数来源类型 约束形式 样本域 样本点个数 生成方式 控制方程 式(7) $ 0\le h\le R,-1\le \mu \le 1 $ 3000 LHS抽样分布 边界条件 $ F(h,\mu {)}^{\prime }\ge 0 $ $ 0\le h\le R,-1\le \mu \le 1 $ 3000 LHS抽样分布 $ h=R,-1\le \mu \le 0,F(h,\mu {)}^{\prime }=0 $ $ h=R,-1\le \mu \le 0 $ 100 等间距分布 原函数定解约束 $ \mu =-1,{F}_{0}(h,-1)=0 $ $ 0\le h\le R,\mu =-1 $ 100 等间距分布 特征值约束 $ {F}_{0}(0,\mu {)}^{\prime }=0.5 $ $ h=0,-1\le \mu \le 1 $ 100 等间距分布 -
[1] RAISSI M, PERDIKARIS P, KARNIADAKIS G E. Physics-informed neural networks: a deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations[J]. Journal of Computational Physics, 2019, 378: 686-707. doi: 10.1016/j.jcp.2018.10.045 [2] XIE Y C, WANG Y H, MA Y, et al. Neural network based deep learning method for multi-dimensional neutron diffusion problems with novel treatment to boundary[J]. Journal of Nuclear Engineering, 2021, 2(4): 533-552. doi: 10.3390/jne2040036 [3] 刘东,罗琦,唐雷,等. 基于PINN深度机器学习技术求解多维中子学扩散方程[J]. 核动力工程,2022, 43(2): 1-8. [4] WANG J Y, PENG X J, CHEN Z, et al. Surrogate modeling for neutron diffusion problems based on conservative physics-informed neural networks with boundary conditions enforcement[J]. Annals of Nuclear Energy, 2022, 176: 109234. doi: 10.1016/j.anucene.2022.109234 [5] ELHAREEF M H, WU Z Y. Physics-informed neural network method and application to nuclear reactor calculations: a pilot study[J]. Nuclear Science and Engineering, 2023, 197(4): 601-622. doi: 10.1080/00295639.2022.2123211 [6] 刘东,王雪强,张斌,等. 深度学习方法求解中子输运方程的微分变阶理论[J]. 原子能科学技术,2023, 57(5): 946-959. doi: 10.7538/yzk.2023.youxian.0002 [7] XIE Y C, WANG Y H, MA Y. Boundary dependent physics-informed neural network for solving neutron transport equation[J]. Annals of Nuclear Energy, 2024, 195: 110181. doi: 10.1016/j.anucene.2023.110181 [8] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//29th IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770-778. [9] 郭玥秀,杨伟,刘琦,等. 残差网络研究综述[J]. 计算机应用研究,2020, 37(5): 1292-1297. [10] 曹良志,谢仲生,李云召. 近代核反应堆物理分析[M]. 北京: 中国原子能出版社,2017:12-20 . [11] 谢仲生,曹良志,张少泓. 核反应堆物理分析[M]. 第五版. 西安: 西安交通大学出版社,2020: 69-90. [12] 杜书华. 输运问题的计算机模拟[M]. 长沙: 湖南科学技术出版社,1989: 467-470. -