-
重力测量数据中的噪声是制约重力解释和应用的主要因素之一,从噪声数据中恢复重力观测值是重力数据处理的重要步骤。针对该问题,研究者们提出了多种滤波方法,如快速傅里叶变换(fast Fourier transform,FFT)低通滤波器是经典有效的滤波方法[1],主要针对高频噪声进行滤除,但可能会损失一部分有用的信息;卡尔曼(Kalman)滤波方法是处理航空重力的一维重力及重力梯度数据的有效方法[2];克里金插值滤波、广义插值滤波和定向滤波用于处理二维的重力观测数据,更能体现重力异常的固有特征[3-4];文献[5] 基于数据本身进行去噪,结合重力和重力梯度数据进行综合分析滤波;文献[6]利用重力向上延拓进行去噪;利用小波时频分析技术处理重力数据,相比传统数字滤波更易于构造和调整[7- 8];基于改进凸集投影原理可同时进行重力数据插值与去噪[9];基于信号处理的重力重建算法,立足于噪声特性,在一定条件下都有良好的效果,但往往伴随算法本身的局限性。
人工神经网络作为机器学习的主要技术之一,具有强大的数据表达和映射能力。其中,自编码器神经网络结构的输入和输出是维度完全相同的数据。目前,在地震学领域也提出了一些运用自编码器解决问题的方法[10-12]。如文献[13]用叠加自编码器去除一维的地震和测井数据噪声,说明该方法适用于处理地球物理数据。
本文基于深度学习技术,利用神经网络处理重力数据,立足于重力场本身的物理特性,将噪声特性看作无效数据。以融合了自编码器和卷积神经网络的卷积自编码器(convolutional autoencoder,CAE)为神经网络结构,通过学习大量模拟的噪声数据,训练出可从含噪重力图像数据中重建重力图像的神经网络,并利用模拟及实测数据测试了网络的重建性能。
-
文献[14]提出了自编码器的雏形,是一种特殊结构的神经网络,其输入和输出的张量形状完全相同,可对机器学习数据进行降维和特征提取[15-16]。文献[17-19]发现自编码器对数据进行降噪的效果良好。随着卷积神经网络在图像处理中取得了优异效果,引入卷积层的卷积自编码器在图像去噪和压缩编码任务中也效果良好[20-21]。因此,本文选取卷积自编码器处理重力图像数据,即卷积神经网络结构能在低级几何尺度以及高级抽象尺度上提取图像特征,自编码器结构可将特征重组成和输入一样维度的输出。
图 1是卷积自编码器的基本结构示意,在图像输入“2”和输出“2”之间有编码网络ε和解码网络D。在普通自编码器中,编码网络和解码网络都由全连接的隐层构成。而卷积自编码器中,隐层由卷积层及反卷积层替代。⊕和
分别表示卷积和反卷积操作,两者代替了普通隐层。利用n个二维卷积核对较大尺寸的图像进行卷积,得到n个较小尺寸的特征图像。卷积操作是指卷积核在输入图像上滑动,与在卷积核范围内位置对应的像素相乘并求和,得到位于卷积核中心位置的输出图像像素值。反卷积层中则对n个较小的特征图像卷积并叠加成一个较大尺寸的输出图像。反卷积操作与卷积操作的差别在于反卷积在计算前会对较小的特征图进行0值填充使之扩大,接续计算与卷积相同,反卷积后小特征图会变大。 -
利用卷积自编码器处理数字图像时,神经网络的输入是24位彩色位图或8位灰度位图。在重力观测中,一般测网中的测点分布均匀,而在数据处理中,往往还要对测网数据进行格网插值,使之成为均匀的点阵数据。这些原始测点或格网插值的点相当于重力图像中的像素。因此,二维的重力数据可以作为卷积自编码器的输入,只需要将重力观测值映射到位图像素值空间中进行处理,处理完毕后再映射回重力值空间。
在实际神经网络训练中,通过吞吐大量样本数据实现神经网络学习,这些重力样本数据是具有明确物理单位的物理量,而数字图像中的像素值仅具有视觉观察上的意义,没有实际物理单位。因此,在训练一个特定的卷积自编码器时,无论是训练数据、测试数据,还是实际任务将要处理的数据,都必须在神经网络中具有同一单位尺度。因此,对于同一个神经网络,存在重力值上、下边界,分别对应8位灰度图像素的整型值边界0、255。设训练样本、测试样本及处理数据中的重力最小值、最大值分别为
、 ,则在输入网络前重力数据都进行如下映射: 式中,
、 分别为输入神经网络的重力像素值、实际重力值。重建的结果也根据式(1)映射回重力观测值。 首先确立三维坐标系,在地下坐标范围内随机生成大量的重力正六面体模型,这些六面体模型具有不同的长、宽、高、中心位置及密度,利用这些正六面体正演得到重力训练输出样本。正六面体单元可由位于对角顶点的两个角点坐标
、 确定,设测网中的一个测点坐标为 ,正六面体重力正演公式为: 式中,K为万有引力常数;
为六面体密度; 显然,并非所有形式的像素分布都能代表自然重力异常分布,只有通过重力公式得到的重力数据才接近自然重力。在生成重力六面体模型中需注意以下要点:
1)卷积神经网络结构具有平移不变性的特征,即同一物体出现在图像内任意位置,对于卷积神经网络相当于相同的输入。因此,在加入了卷积层的自编码神经网络结构中,输入对象在输出后会出现在图像的同一位置。在学习阶段,生成的重力异常不必出现在图像的不同位置,固定在一处即可。本文将所有正六面体的水平位置都固定在测网中心位置。
2)正六面体是地下重力场源体的近似,但由于重力场的固有叠加特性,不同形态的场源体产生的重力异常几何特征差异远不如其场源体本身的几何特征差异大。另外,较复杂的场源体可近似看作不同大小的正六面体拼接而成,在卷积神经网络结构中,这种拼接将被泛化,即卷积神经网络结构对于复杂形态的重力异常将自动提取其局部异常并在输出中重建。因此,本文利用不同长宽高的六面体代表自然场源体,能最大程度地训练出可学习到接近自然重力的神经网络。
3)为提高六面体模型的代表性,本文将六面体空间参数及密度参数的精度限制在一定程度。设置空间参数精度为1 m,密度参数精度为
。 在由正六面体正演生成的重力输出样本中随机加入噪声形成含噪声重力,作为输入样本加入重建重力的训练样本集。
将样本集输入神经网络进行训练,在训练过程中,利用卷积自编码器的实际输出与输出样本的欧氏距离构建损失函数E:
式中,
为训练过程中网络的输出; 为相应的原始重力。为了最小化损失函数,利用RMSProp(root mean square propagation)优化算法[22]进行迭代优化训练,直至损失函数收敛,得到训练好的模型,将其用于重建含噪重力数据,可参考文献[22]。 综上所述,训练用于重建含噪重力数据的卷积自编码器,流程如图 2所示。
-
重力二维测网中的每个测点相当于重力数据图中的每个像素。综合考虑神经网络的训练速度、网络结构的深度以及学习重力数据的精度,参考用于图像重建的卷积自编码器神经网络,本文设计了卷积自编码器重建含噪重力数据,结构如图 3所示。
图 3 用于重建含噪重力的卷积自编码器结构
Figure 3. Neural Network Structure of CAE Used to Reconstruct the Noisy Gravity Data
将物理空间坐标x、y、z的范围都设置为(0,1 000)m。二维重力测网由26×26个均匀分布的测点构成,点距为40 m。这些测点构成卷积自编码器的输入和输出像素,重力观测值只有大小这一属性,相当于灰度图,故网络的输入和输出都是1×26×26的张量。在输入端,输入张量首先进入卷积解码网络,解码网络有两层卷积层,使用的卷积核尺寸都为3×3像素,步长都为2×2像素。第一层卷积层设置32个相互独立的卷积核,每个卷积核通过卷积操作形成一个输入的特征图,用于提取重力图像的局部特征,共得到32个13×13的特征图,即32×13×13的张量。这些特征图继续进入第二个卷积层,该卷积层有64个独立的卷积核,通过卷积形成64×7×7的特征图集合张量,进一步提取重力数据的高级抽象特征。然后进入反卷积解码网络,设置两个反卷积层,通过两次反卷积操作,64×7×7的张量被还原为1×26×26的张量,得到输出的重力数据图。
本文在三维物理空间随机生成了1 000个不同的正六面体,由式(2)~(7)正演其原始重力,对原始重力随机添加平均幅度为重力均值10%的高斯噪声生成含噪重力。图4(a)、4(b)分别为部分训练集原始重力、含噪重力数据。将这1 000对含噪重力数据和原始重力数据输入网络进行训练,直至损失函数收敛,测试网络性能。
-
利用两个基本模型的正演重力数据测试本文卷积自编码器的性能,这两个模型分别为单场源体正六面体的双体模型以及两个不同大小、深度场源体的组合模型。
图5(a)、5(b)、5(c)分别为双体模型的叠加原始重力图、含噪重力图、重建重力图,噪声水平为10%。可以看出,所训练的卷积自编码器重建效果良好,噪声被有效去除,并且完整恢复了重力的边缘过渡特征。尽管训练卷积自编码器时,所有样本都是位于图像中心的单场源重力,训练好的卷积自编码器能够学习重力场的固有特征,自行学习多场源重力分布及其局部特征,对其进行含噪重建,重建效果良好。上述结论不仅适用于本文所提方法,也为用卷积神经网络进行重力异常数据各种处理提供基本理论支持。
图 5 原始重力图、含噪重力图及重建重力图
Figure 5. Original Gravity, Noisy Gravity and Reconstructed Gravity with Noise
为进一步验证本文卷积自编码器的有效性,设置了复杂的组合异常进行测试。图5(d)、5(e)、5(f)分别为组合模型的叠加原始重力图、含噪重力图、重建重力图,包含5个不同的重力异常区,噪声水平加大到20%,超出训练集的噪声水平。由图 5(f)可知,卷积神经网络恢复出了主要异常的位置和幅值,但在各重力异常之间的过渡区存在少量失真,总体效果理想。
此外,依照深度学习中神经网络的测试标准,本文设置了测试集测试本文卷积自编码器。测试集每个样本中的重力场源体为4~10个不等,空间位置及密度随机变化。在测试集样本中随机加入10%~30%的高斯噪声,得到含噪声的重力数据。共产生了500个测试样本,图 6为部分测试样本示意图。
统计测试集重建输出结果的相对误差,计算如下:
式中,
分别为各个测点的重建重力值、原始重力值; 为重力图像中的像素总数,在本文网络结构中为 。 图 7为测试集重建结果的相对误差频率直方图,可以看出,重建结果中相对误差集中分布在0附近,最大不超过5%。在训练集中,噪声水平仅为10%。在测试集中,噪声水平为10%~30%,而重建结果相对误差在5%以下,重建性能良好。卷积自编码器具有泛化性能,可通过卷积自编码结构学习重力场本身的特征,而摒除了非重力场信号的特征。
在训练和测试中,训练样本与测试样本必须共用同样的物理坐标范围与网格分辨率。利用卷积自编码器处理不同物理范围和分辨率的重力数据分为以下3种情况:(1)如果物理范围不变而分辨率发生变化,在输入网络前对数据进行重采样以符合网络的分辨率;(2)如果测试样本的物理范围小于训练集的物理范围,也可以直接适用,令没有数据的位置为0,并按照第一种情况进行重采样;(3)如果测试样本的物理范围大于测试集的物理范围,必须重新生成相应的训练集,重新训练相应的网络。但在实际应用中,只需用物理范围足够大的样本训练网络,即可适用于所有小于该范围的数据。
-
为了进一步验证本文卷积自编码器的泛化性能,采用澳大利亚Kauring重力试验场的实测重力数据进行测试。图 8为Kauring试验场的位置,所获航空重力数据的点距为7.5 m,线距约20 m,测网离地高度约70 m,海拔高度约200~300 m。重力数据精确到0.01 mGal,测区范围约为东西10 km、南北8 km。选取测区内主要重力异常,并将原始重力数据重采样为适合卷积自编码器神经网络输入的格式进行重建,实测数据测点与神经网络输入数据点分布如图 9所示。在重采样中,对于输入神经网络的每个点,取原始数据测点中与之水平距离最短点的重力值作为其重力值。
由于数据噪声水平较低,本文对原始数据额外加入了幅度为重力平均值10%的高斯噪声,并与航空重力db小波滤波方法[23]及传统频域FFT低通滤波方法进行对比实验,结果如图 10所示。
由图 10可以看出,对于FFT滤波结果,尽管FFT低通滤波去除了绝大部分噪声,但相对误差仅从原始的10.2%降至8.1%,这是由于低通滤波对数据过度平滑引起的。原始重力数据中有3个主要异常极值点A、B、C(见图 10(f)),低通滤波结果恢复出A、C两个较明显的异常极值点,异常极值点B由于幅值不明显,且处于A、C之间的过渡区,在低通滤波结果中被彻底滤除。同时左侧的低重力区与高重力区之间的过渡区明显弱化,重力值分布变得更陡峭。依照文献[23],将db小波分解层数设置为6层。小波滤波结果整体优于FFT滤波结果,恢复出3个主要异常极值点,相对误差下降至5.7%,但少量区域受到噪声影响,滤除不彻底,恢复出的重力异常有一定程度失真。对比来看,本文卷积自编码器将重建结果相对误差大幅降至3.0%,去除了大部分噪声,同时较完整地保留了重力边缘的过渡层次,不存在低通滤波的过渡平滑现象,同时受噪声影响很小,可彻底滤除。2个主要异常极值点均得到恢复(B异常本身幅值较小,显示不明显),说明卷积自编码器学习到了重力场的固有分布特征,借助卷积网络结构能够在高度抽象的层次上区分出噪声和重力。
-
本文将深度学习与重力数据处理相结合,用卷积自编码器神经网络重建含噪重力图像数据。通过学习大量由正演生成的重力数据及含噪数据,卷积自编码器在模型实验和实测数据实验中均取得良好的重建效果,说明自编码器结构的图像去噪技术可以应用到含噪重力数据重建任务中。尽管学习的样本是单场源重力,卷积神经网络结构的存在使得自编码器可以泛化地学习多场源叠加的重力数据,这一现象不仅对重建含噪重力数据有意义,还为用卷积神经网络结构进行其他重力数据提供了基本理论支持,如延拓或异常分离等等,用深度学习处理重力数据是一种崭新的思路。
在实测数据处理结果中,卷积自编码器重建重力的误差明显小于传统FFT低通滤波器,相对于小波滤波结果失真程度更低,相对于FFT滤波能保留重力过度细节。神经网络仅重建出在训练中学习到的重力场特征,不会像传统滤波类方法引入算法本身的副作用。
本文使用的卷积自编码器神经网络结构参数设置较简洁,在深度神经网络的角度上仍属于简单结构。在重力乃至重力梯度数据重建的任务上,深层网络的性能仍有巨大潜力可挖掘,更深的网络、更复杂的结构都将进一步提高重建的准确度,是值得进一步研究的方向。限于现有实测数据噪声水平不足,本文实测数据验证采用了模拟的噪声,在未来需结合含噪实测数据进一步验证方法的适用性。同时,可利用卷积自编码器进行其他一维、二维重力数据处理,如延拓和异常分离等。
-
摘要: 卷积自编码器融合了适于处理相同维度数据映射的自编码器神经网络,以及近年来在图像处理领域取得广泛应用的卷积神经网络。基于深度学习处理重力观测数据图像, 利用卷积自编码器从含噪声的重力图像中重建重力观测图像。首先,随机建模生成大量不同参数的重力异常体,正演其重力异常, 将加入噪声的重力异常和原始重力异常分别作为卷积自编码器的输入和输出进行训练;然后,模拟数据测试表明训练得到的神经网络重建效果良好;最后,用Kauring实验场实测重力数据测试该神经网络的泛化性能,并与快速傅里叶变换(fast Fourier transform,FFT)滤波、db小波(Daubechies wavelet)滤波方法进行了比较。结果表明,训练好的卷积自编码器重建实测重力数据的平均误差小于FFT滤波方法及db小波滤波,且能避免重力异常特征过度滤波而消失,受噪声干扰小于db小波滤波,综合效果理想。Abstract:
Objectives CAE (convolutional autoencoder) combines the autoencoder neural network structure and the convolutional network structure. This paper processes the gravity data based on the deep learning, and reconstructs the gravity contour image from the noisy gravity data with the CAE. The autoencoder structure contains the equal dimensional input and output data, which goes for the gravity data processing. The convolutional network structure is widely used in image recognition recent years, which can learn and recognize the specific objects in an image. Methods To create the training set, we generate 1 000 hexahedrons with the random triaxial length parameters and the random density to simulate the natural gravity source bodies. The 2D gravity data set for these bodies is fast computed with the gravity forward formula and the noisy gravity data set is generated by adding Gaussian noise to the computed data. Meanwhile the accuracy of the length parameters and density is limited in order to improve the representativeness of the training data set. Hence the 2D gravity data and the noisy data will be output and input data of the CAE. We design 5 layers CAE. The input and output layers both are 26×26. 32 and 64 feature maps are generated with 3×3 convolution kernels in the inner layers. The training is executed using RMSProp(root mean square propagation) optimizer. Results To test the generalization of the trained CAE, the testing set with 500 samples is generated in the same way with the training set. The relative error histogram on the testing set shows that the reconstructing error is less than 5% and most of the error is around 0. To test the recognition of the gravity features in the 2D gravity, we test the CAE with simulated gravity data which contain 2 and more gravity anomalies. The results show that the CAE can recognize all gravity anomalies in an noisy gravity image and reconstruct them and the output image shows fairly fine reconstruction from the gravity with 10% noise. The measured gravity data of Kauring testing ground are used to test the generalization performance of the CAE. The reconstructed image is compared with the traditional FFT(fast Fourier transform) filtering and db wavelet filtering results. To increase the reconstruction difficulty, the Kauring data is added with 10% Gaussian noise. The results show that the trained CAE performs significantly less error than the FFT filter and the wavelet filter. Conclusions In terms of reconstructing performance, the CAE can avoid over-processing that may eliminate the real gravity anomaly, which is often seen in filtering especially for FFT filtering. The CAE reconstructs all of the 3 gravity anomalies of Kauring while the FFT filtering reconstructs 2. And the over-smoothing artifact is less than filtering methods.The CAE can process 2D gravity data and show lower error and generate less artifacts than filtering methods in our tests with testing set, simulated gravity data and measuring data. Beyond that, this article reveals that the deep learning can learn gravity image. With the convolution structure in a neural network, the network can learn single gravity anomaly samples and extensively recognize all gravity anomalies in a gravity image, which signifies that the gravity can integrate with the artificial intelligence technology. -
-
[1] Childers V A, Bell R E, Brozena J M. Airborne Gravimetry: An Investigation of Filtering[J]. GEOPHYSICS, 1999, 64(1): 61-69 doi: 10.1190/1.1444530 [2] 王静波, 熊盛青, 郭志宏, 等. 航空重力数据Kalman滤波平滑技术应用研究[J]. 地球物理学进展, 2012, 27(4): 1717-1722 https://www.cnki.com.cn/Article/CJFDTOTAL-DQWJ201204053.htm Wang Jingbo, Xiong Shengqing, Guo Zhihong, et al. Kalman Smoothing for Airborne Gravity Data[J]. Progress in Geophysics, 2012, 27(4): 1717-1722 https://www.cnki.com.cn/Article/CJFDTOTAL-DQWJ201204053.htm [3] Pilkington M, Shamsipour P. Noise Reduction Procedures for Gravity-Gradiometer Data[J]. GEOPHYSICS, 2014, 79(5): 69-78 doi: 10.1190/geo2014-0084.1 [4] While J, Biegert E, Jackson A. Generalized Sampling Interpolation of Noisy Gravity/Gravity Gradient Data[J]. Geophysical Journal International, 2009, 178(2): 638-650 doi: 10.1111/j.1365-246X.2009.04193.x [5] Pajot G, de Viron O, Diament M, et al. Noise Reduction Through Joint Processing of Gravity and Gravity Gradient Data[J]. GEOPHYSICS, 2008, 73(3): I23-I34 doi: 10.1190/1.2905222 [6] Jirigalatu, Ebbing J, Sebera J. A New Noise Reduction Method for Airborne Gravity Gradient Data[J]. Exploration Geophysics, 2016, 47(4): 296-301 doi: 10.1071/EG15125 [7] 柳林涛, 许厚泽. 航空重力测量数据的小波滤波处理[J]. 地球物理学报, 2004, 47(3): 490-494 https://www.cnki.com.cn/Article/CJFDTOTAL-DQWX200403019.htm Liu Lintao, Xu Houze. Wavelets in Airborne Gravimetry[J]. Chinese Journal of Geophysics, 2004, 47(3): 490-494 https://www.cnki.com.cn/Article/CJFDTOTAL-DQWX200403019.htm [8] 孙中苗, 翟振和. 航空重力测量数据的小波阈值滤波[J]. 武汉大学学报·信息科学版, 2009, 34(10): 1222-1225 http://ch.whu.edu.cn/article/id/1415 Sun Zhongmiao, Zhai Zhenhe. Filtering of the Airborne Gravity Data by Wavelet Thresholding[J]. Geomatics and Information Science of Wuhan University, 2009, 34(10): 1222-1225 http://ch.whu.edu.cn/article/id/1415 [9] 曾小牛, 李夕海, 刘继昊, 等. 一种基于改进凸集投影原理的航空重力数据插值与去噪方法[J]. 武汉大学学报·信息科学版, 2020, 45(10): 1555-1562 doi: 10.13203/j.whugis20180470 Zeng Xiaoniu, Li Xihai, Liu Jihao, et al. Simultaneous Interpolation and Denoising Method for Airborne Gravity Data Based on Improved Projection onto Convex Sets Theory[J]. Geomatics and Information Science of Wuhan University, 2020, 45(10): 1555-1562 doi: 10.13203/j.whugis20180470 [10] Holdaway K R, Irving D H B. Enhance Oil & Gas Exploration with Data-Driven Geophysical and Petrophysical Models[M]. Hoboken: John Wiley & Sons, 2017 [11] Mandelli S, Borra F, Lipari V, et al. Seismic Data Interpolation Through Convolutional Autoencoder[C]//SEG Technical Program Expanded Abstracts, Anaheim, California, USA, 2018 [12] Liu M L, Grana D. Ensemble-Based Seismic History Matching with Data Reparameterization Using Convolutional Autoencoder[C]//SEG Technical Program Expanded Abstracts, Anaheim, California, USA, 2018 [13] Bhowick D, Gupta D K, Maiti S, et al. Stacked Autoencoders Based Machine Learning for Noise Reduction and Signal Reconstruction in Geophysical Data[J]. arXiv, 2019, DOI: 1907.03278 [14] Kramer M A. Nonlinear Principal ComponentAnalysis Using Autoassociative Neural Networks[J]. AIChE Journal, 1991, 37(2): 233-243 doi: 10.1002/aic.690370209 [15] Hinton G E, Salakhutdinov R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(5786): 504-507 doi: 10.1126/science.1127647 [16] Salakhutdinov R, Hinton G. Semantic Hashing[J]. International Journal of Approximate Reasoning, 2009, 50(7): 969-978 doi: 10.1016/j.ijar.2008.11.006 [17] Buades A, Coll B, Morel J M. A Review of Image Denoising Algorithms, with a New One[J]. Multiscale Modeling & Simulation, 2005, 4(2): 490-530 [18] Cho K. Simple Sparsification Improves Sparse Denoising Autoencoders in Denoising Highly Corrupted Images[C]//The 30th International Conference on International Conference on Machine Learning, Atlanta, Georgia, USA, 2013 [19] Theis L, Shi W Z, Cunningham A, et al. Lossy Image Compression with Compressive Autoencoders[J]. arXiv, 2017, DOI: 1703.00395 [20] Gondara L. Medical Image Denoising Using Convolutional Denoising Autoencoders[C]//The 16th International Conference on Data Mining Workshops, Barcelona, Spain, 2016 [21] Ribeiro M, Lazzaretti A E, Lopes H S. A Study of Deep Convolutional Auto-Encoders for Anomaly Detection in Videos[J]. Pattern Recognition Letters, 2018, 105: 13-22 [22] Goodfellow I, Bengio Y, Courville A. Deep Learning[M]. Cambridge: MIT Press, 2016 [23] 罗锋, 郭志宏, 王明, 等. 基于DB小波阈值去噪的航空重力数据试验[J]. 物探与化探, 2013, 37(4): 645-654 https://www.cnki.com.cn/Article/CJFDTOTAL-WTYH201304015.htm Luo Feng, Guo Zhihong, Wang Ming, et al. Experimental Researches on the Threshold of Airborne Gravity Data Denoising Based on DB Wavelet Transform[J]. Geophysical and Geochemical Exploration, 2013, 37(4): 645-654 https://www.cnki.com.cn/Article/CJFDTOTAL-WTYH201304015.htm -